Border States Industries alimenta el crecimiento rápido con ERP
GRUPO 6
Conformado por:
Christopher Arias Perez
Fiorella Chaverri Salas
¿Qué problemas
encontró Border States Industries al momento de expandirse? ¿Qué factores de
administración, organización y tecnología fueron responsables de estos
problemas?
Desde 1988, RSE había confiado en su propio
sistema ERP heredado conocido como Rigel para dar soporte a sus procesos de
negocios básicos. El problema radico en que Rigel había sido diseñado para uso
exclusivo de mayoristas de productos eléctricos, y para mediados de la década
de 1990 el sistema no podía soportar las nuevas líneas de negocios de BSE y su
extenso crecimiento.
Factores de administración, organización
y tecnología
En cuanto a los factores de administración
y organización que fueron responsables, están el no haber realizado una planeación
más eficiente y completa ya que una empresa debe tener claro cual es la dirección
o al objetivo que se quiere llegar y los pasos que va a realizar para cumplirlos. Una empresa
debe tener claro si se quiere expandir o no y que recursos va a necesitar para
lograrlo esto se relaciona con los factores tecnológicos, ya que primeramente
es realizar una buena planificación de negocio y después procurar que se tengan
o se puedan conseguir en determinado plazo los recursos necesarios o que con
los que se tenga sea suficiente para cumplir los objetivos. En este caso con el
programa que se tenía no era suficiente para expandirse y eso fue lo que afecto
a la empresa.
¿Qué tan fácil fue
desarrollar una solución mediante el software ERP de SAP? Explique su
respuesta.
No fue tan fácil de hecho al
principio tuvo muchos costos y dificultades ya que no se conformaron con el
software como tal si no que tuvo un proceso de modificaciones y
personalizaciones por lo que esto llevo su tiempo de capacitación a empleados y
costos, a pesar de que la gerencia estaba muy comprometida. Al momento de la
implementación, BSE no tenía experiencia con el software de SAP, además de contar
con pocos consultores familiarizados con la versión del software de SAP que se
estaba utilizando. Decidieron entonces adoptar los procesos de negocios de las
mejores prácticas incrustados en el software de SAP, y para esto BSE contrató
consultores para personalizar aún más el software de SAP y hacer que el nuevo
sistema SAP se viera igual que su antiguo sistema Rigel en ciertas áreas es
decir más costos ya que tenían que pagarle a estos consultores.
Mencione y describa
los beneficios del software SAP.
Tenía módulos de SAP
para ventas y distribución, administración de materiales, finanzas y control, y
recursos humanos.
En 2004, BSE empezó a actualizar su sistema ERP a una
versión más reciente del software de SAP. Este software facilitaba:
·Nuevo soporte para las listas de material y la
elaboración de kits (kitting), lo cual no estaba disponible en el sistema
anterior, lo cual le permitió a BSE
ofrecer un mejor soporte para los clientes de servicios públicos, ya que podía
preparar kits que se pudieran entregar de manera directa a un sitio.
·Al mantener la personalización al mínimo grado
posible, utilizó las mejores prácticas de SAP para la distribución de mayoreo
que venía incrustada en el software.
¿Qué tanto transformó la solución del nuevo sistema a la empresa?
Explique su respuesta.
La transformo bastante, a pesar
de que al principio el panorama no fue el mejor, después con un manejo más
adecuado le ha dado grandes éxitos a la empresa además de que esto le ha
permitido implementar mas ya que desde que BSE implementó SAP por primea vez en
1998, las ventas se incrementaron un 300 por ciento, las ganancias se
dispararon a más del 500 por ciento, el 60 por ciento de las transacciones de
cuentas por pagar se realizan por vía electrónica mediante EDI y el
procesamiento de SPA se redujo en un 63 por ciento. La compañía rota su
inventario más de cuatro veces al año. En vez de esperar de 15 a 20 días por
los estados financieros mensuales, los resultados financieros mensuales y del
año a la fecha están disponibles en menos de un día después de haber cerrado
los libros. El trabajo manual para manejar el correo entrante, preparar los
depósitos bancarios y llevar los cheques físicamente al banco se ha reducido de
manera considerable. Más del 60 por ciento de las facturas de los
distribuidores llegan por vía electrónica, lo cual ha reducido el tamaño del
personal en cuentas por pagar y el número de errores en las transacciones. Los
costos de las transacciones son menores.
¿Qué tan exitosa fue
esta solución para BSE? Identifique y describa la métrica utilizada para medir
el éxito de la solución.
Como se detalló en la respuesta
anterior, fue muy exitosa, sin embargo al principio tuvo sus problemas esto nos
lleva al hecho de que siempre es importante tener una buena planificación de lo
que se va a realizar para alcanzar los objetivos, los recursos que se
necesitaran y el presupuesto suficiente como para poder llevar a cabo alguna eventualidad
de más costos ya que los software siempre deben tener pruebas primero, pero después
de haberlo implementado bien y haber aprendido a utilizarlo le genero muchos éxitos
a la empresa, que si no lo hubieran implementado muy probablemente no hubieran
tenido tanto éxito.
Si usted hubiera
estado a cargo de las implementaciones del ERP de SAP, ¿qué hubiera hecho
diferente?
Como mencione anteriormente,
primero hubiera hecho una planificación más adecuada al principio ya que por
ejemplo la conversión y limpieza de los datos del sistema heredado de BSE
requirió mucho más tiempo del que la gerencia había anticipado. El primer grupo
de “usuarios expertos” se capacitó con demasiada anticipación en el proyecto, y
tuvo que volver a recibir capacitación cuando el nuevo sistema por fin entró en
acción. Entonces son cosas que retrasan las ganancias, le generan costos no
planificados a la organización y además un impacto en los empleados.
TELECOMUNICACIONES, INTERNET Y
TECNOLOGIA INALAMBRICA
LAS TELECOMUNICACIONES Y REDES EN EL MUNDO DE NEGOCIOS ACTUAL
TENDENCIAS DE REDES Y COMUNICACIÓN
Las redes telefónicas y las redes
de computadora eran las distintas redes que se utilizaban en el pasado, las telefónicas
manejaban la comunicación por voz y las de computadora se encargaban del tráfico
de datos. Las compañías telefónicas crearon las redes telefónicas por medio del
uso de tecnologías de transmisión de voz y operaban como monopolios, mientras
que las compañías de computadoras crearon las redes computacionales para
transmitir datos entre ordenadores en diferentes ubicaciones. Debido a que se
ha dado una fuerte innovación en la tecnología y se han desregulado las
telecomunicaciones las redes telefónicas y computacionales se están convirtiendo
en una sola red digital por medio de estándares basados en internet y equipo
compartidos. Todas estas comunicaciones de voz, video y datos se basan cada vez
más en la tecnología de Internet.
¿QUÉ ES UNA RED DE COMPUTADORAS?
Unared consiste de dos o más computadoras conectadas entre sí. Cada
computadora en la red contiene un dispositivo de interfaz de red llamado tarjeta
de interfaz de red (NIC). Actualmente la mayor parte de computadoras personales
tienen integrada esta tarjeta en la tarjeta madre. Para vincular componentes de
red el medio de conexión puede ser un cable telefónico, uno coaxial o una señal
de radio, en el caso de las redes de teléfonos celulares y de área local
inalámbricas (redes Wi-Fi). El sistema
operativo de red (NOS) lo que hace es que enruta y administra las comunicaciones en la
red y además coordina los recursos de
ésta, puede residir en cualquier computadora en la red, o principalmente en una
computadora servidor dedicada para todas las aplicaciones en la red, cabe
destacar que una computadora servidor
es una computadora en una red que realiza importantes funciones de red para
computadoras cliente, como servir páginas Web, almacenar datos y almacenar el
sistema operativo de red. La mayoría de las redes también contienen un switch o un hub que actúa como un punto de conexión entre las computadoras. En
el caso de los hubs son dispositivos muy simples que conectan componentes de
red, para esto envían un paquete de datos a todos los demás dispositivos
conectados. Pero un switch tiene mayor funcionalidad que un hub ya que puede
tanto filtrar como reenviar datos a un destino especificado en la red. Para
comunicarse con otra red como internet se necesita un enrutador que es un procesador de comunicaciones que se utiliza
para enrutar paquetes de datos a través de distintas redes y asegurar que los
datos enviados lleguen a la dirección correcta.
Redes en compañías grandes
En el caso de las grandes compañías
con muchas ubicaciones distintas y miles de empleados, se crean cientos de
pequeñas redes de área local, que se pueden enlazar en una infraestructura de
red a nivel corporativo. Cuando se menciona infraestructura de redes para una
gran corporación se refiere a una gran cantidad de estas pequeñas redes de área
local vinculadas con otras redes de área local y con redes corporativas en toda
la empresa. Varios servidores poderosos soportan un sitio Web corporativo, una
intranet corporativa y tal vez una extranet. Actualmente muchas empresas se
están deshaciendo de sus redes telefónicas tradicionales y utilizan teléfonos
de Internet que operan en sus redes de datos existentes. Sin embargo uno de los
principales problemas a los que se enfrentan las corporaciones en la actualidad
es la manera de integrar todas las distintas redes de comunicaciones y canales
en un sistema coherente que permita que la información fluya de una parte de la
corporación a otra, y de un sistema a otro.
TECNOLOGÍAS DE REDES DIGITALES CLAVE
Las tres tecnologías en las que
se basan las redes digitales contemporáneas son: computación cliente/servidor,
el uso de la conmutación de paquetes y el desarrollo de estándares de
comunicación con amplio uso para vincular redes y computadoras dispares.
Computación cliente/servidor Este es un modelo de computación distribuida
en el que parte del poder de procesamiento se encuentra dentro de pequeñas
computadoras cliente económicas, y que reside literalmente en equipos de
escritorio, laptops o en dispositivos portátiles. Estos poderosos clientes
están vinculados entre sí mediante una red controlada por una computadora
servidor de red. El servidor establece las reglas de comunicación para la red y
provee a cada cliente una dirección, de modo que otros equipos puedan
encontrarlos en la red. La computación cliente/servidor ha extendido la
computación a partes de las empresas a las que no se podía dar servicio
mediante una arquitectura centralizada. Internet es la implementación más
grande de la computación cliente/ servidor.
Conmutación de paquetes, es un método para dividir mensajes
digitales en parcelas llamadas paquetes, y éstos se envían por distintas rutas
de comunicación a medida que se vuelven disponibles, para después re
ensamblarlos una vez que llegan a sus destinos. Antes de esto, se rentaban circuitos telefónicos
dedicados para comunicarse con otras computadoras en ubicaciones remotas en
este caso se ensambla un circuito completo punto a punto y después se puede
iniciar la comunicación. El problema que se daba es que estas técnicas
dedicadas de conmutación de paquetes eran costosas y desperdiciaban la capacidad
de comunicaciones disponible ya que el circuito se mantenía sin importar que se
enviaran o no datos. En cambio en las redes de conmutación de paquetes, los
mensajes primero se descomponen en pequeños grupos fijos de datos conocidos
como paquetes, los cuales contienen información para dirigir el paquete a la
dirección correcta y verificar los errores de transmisión junto con los datos,
cabe destacar que los paquetes se transmiten a través de varios canales de comunicación
mediante enrutadores y cada paquete viaja de manera independiente.
TCP/IP y conectividad Los distintos componentes en una red sólo se
pueden comunicar si se adhieren a un conjunto común de reglas denominadas
protocolos, que es un conjunto de reglas y procedimientos que gobiernan la
transmisión de información entre dos puntos en una red. En la actualidad, las
redes corporativas utilizan cada vez más un único estándar común a nivel
mundial, conocido como Protocolo de Control de Transmisión/Protocolo de Internet
(TCP/IP). TCP se refiere al Protocolo de Control de Transmisión (TCP), este es
el que se encarga del movimiento de datos entre computadoras, establece una
conexión entre las computadoras, secuencia la transferencia de paquetes y
confirma la recepción de los paquetes enviados. Por otro lado, IP se refiere al Protocolo de Internet (IP),
este es responsable de la entrega de paquetes y comprende los procesos de
desensamblar y re ensamblar los paquetes durante la transmisión.
Un aspecto importante es que dos
computadoras que utilizan TCP/IP se pueden comunicar aunque estén basadas en
distintas plataformas de hardware y software. El proceso es el siguiente: Los
datos que se envían de una computadora a la otra descienden por todas las
cuatro capas, por la capa de aplicación de la computadora emisora y pasando por
la capa de Interfaz de red, los datos
llegan a la computadora huésped receptora, suben por las capas y se vuelven a
ensamblar en un formato que la computadora receptora pueda utilizar. En caso de
que la computadora receptora encuentra un paquete dañado, pide a la computadora
emisora que lo retransmita. Este proceso se invierte cuando la computadora
receptora responde.
REDES DE COMUNICACIONES
COMPARACIÓN ENTRE SEÑALES
DIGITALES Y ANALÓGICAS
Una señal analógica se representa
mediante una forma de onda continua que pasa por un medio o canal de comunicación
y se ha utilizado para la comunicación por voz. Para aclarar más el concepto, los dispositivos
analógicos más comunes son el auricular telefónico, el altavoz en la computadora
o los audífonos del iPod, cada uno de los cuales crea formas analógicas que el oído
pueda escuchar.. Las señales digitales comunican la información como cadenas de
dos estados discretos: bits cero y bits uno, que se representan como pulsos
eléctricos de encendido apagado. Las computadoras usan señales digitales y
requieren un módem para convertirlas en señales analógicas que se puedan enviar
o recibir por medio de líneas
telefónicas, líneas de cable o medios inalámbricos que utilicen señales
analógicas. Algo que probablemente no conocíamos
la mayoría, es que la palabra módem es abreviación de modulador-demodulador.
Los módems de cable conectan su computadora a Internet mediante el uso de una
red de cable. Los módems DSL conectan su computadora a Internet mediante el uso
de una red de líneas de tierra de la compañía telefónica. Los módems
inalámbricos realizan la misma función que los tradicionales; conectan su
computadora a una red inalámbrica que podría ser una red telefónica celular o
una red Wi-Fi.
TIPOS DE REDES
Una manera de analizar las redes es en términos de su alcance geográfico.
Redes de área local: (LAN) está diseñada para conectar computadoras
personales y otros dispositivos digitales dentro de un radio de media milla o
500 metros. Las LAN también se utilizan para vincularse a redes de área amplia
de larga y a otras redes alrededor del mundo por medio de Internet. El servidor
determina quién obtiene acceso a cuáles recursos y en qué secuencia. El
enrutador conecta la LAN con otras redes, que podrían ser Internet u otra red
corporativa, de modo que la LAN pueda intercambiar información con las redes
externas. Cada uno de los sistemas operativos de red soporta TCP/IP como su
protocolo de redes predeterminado.
Ethernet es el estándar de LAN
dominante a nivel de red física; especifica el medio físico para transportar
las señales entre computadoras, las reglas de control del acceso y un conjunto
estandarizado de bits que se utilizan para transportar datos a través del
sistema. Como alternativa, las redes LAN pueden usar una arquitectura de igual
a igual, esto se refiere a dar la misma forma a todos los procesadores y se
utiliza en primera instancia en las redes pequeñas con 10 o menos usuarios. En
una topología de estrella, todos los dispositivos en la red se conectan a un
solo concentrador. En una topología de bus, una estación transmite señales que
viajan en ambas direcciones a lo largo de un solo segmento de transmisión. Una
topología de anillo conecta a los componentes de la red en un lazo cerrado. Los
mensajes pasan de una computadora a otra sólo en una dirección a través del
lazo, y sólo una estación puede transmitir a la vez. La WAN más universal y
poderosa es Internet. Las computadoras se conectan a una WAN por medio de redes
públicas, como el sistema telefónico o los sistemas de cable privados, o por
medio de líneas o satélites que se rentan. Una red de área metropolitana (MAN)
abarca un área metropolitana, por lo general una ciudad y sus principales
suburbios. Su alcance geográfico está entre una WAN y una LAN.
MEDIOS DE TRANSMISIÓN FÍSICOS
Cable trenzado: Consiste en tiras
de cable de cobre trenzadas en pares y es uno de los tipos más antiguos de
medio de transmisión. El cableado de par trenzado se limita a un tendido máximo
recomendado de 100 metros (328 pies).
Cable coaxial: Es similar al que
se utiliza para la televisión por cable, consiste en cable de cobre con
aislamiento grueso, el cual puede transmitir un mayor volumen de datos que el
cable trenzado.
Fibra óptica y redes ópticas: El
cable de fibra óptica consiste en tiras unidas de fibra de vidrio transparente,
cada una del grosor de un cabello humano. Los datos se transforman en pulsos de
luz, los cuales se envían a través del cable de fibra óptica mediante un
dispositivo láser a velocidades que varían desde 500 kilobits hasta varios
billones de bits por segundo en entornos experimentales, es más costoso que
otros medios físicos de transmisión y más difícil de instalar.
Medios de transmisión inalámbricos
La transmisión inalámbrica se basa en las señales
de radio de varias frecuencias. Hay tres tipos de redes inalámbricas que
utilizan las computadoras: de microondas, celular y Wi-Fi. Los sistemas de
microondas, tanto terrestres como celestiales, transmiten señales de radio de
alta frecuencia a través de la atmósfera y se utilizan mucho para la
comunicación punto a punto de alto volumen y larga distancia, siguen una línea
recta y no se doblan con la curvatura de la tierra. También se pueden realizar
transmisiones de larga distancia al usar los satélites de comunicación como
estaciones repetidoras para las señales de microondas que se transmiten desde
estaciones terrestres. Los satélites de comunicación utilizan la transmisión
por microondas; por lo general para transmitir en organizaciones extensas,
dispersas en varias ubicaciones geográficas que sería difícil conectar en red
mediante el uso de medios de cables o microondas terrestres, así como para el
servicio de Internet en el hogar, en especial en las áreas rurales.
Los sistemas celulares también
utilizan ondas de radio y una variedad de protocolos distintos para comunicarse
con antenas de radio (torres) colocadas dentro de áreas geográficas adyacentes,
conocidas como celdas
INTERNET GLOBAL
Internet es la implementación más
grande en el mundo de la computación cliente/servidor y de las interredes, ya
que vincula a millones de redes individuales en todo el mundo. Esta red de
redes global empezó a principios de la década de 1970 como una red del
Departamento de Defensa de Estados Unidos para enlazar a científicos y
profesores universitarios de todo el mundo. Un proveedor de servicios de
Internet (ISP) es una organización comercial con una conexión permanente a
Internet que vende conexiones temporales a suscriptores minoristas. La línea de
suscriptor digital (DSL), el cable, las conexiones a Internet vía satélite y
las líneas T proveen estos servicios de banda ancha. Las tecnologías de línea
de suscriptor digital (DSL) operan a través de las líneas telefónicas
existentes para transportar voz, datos y video a tasas de transmisión que
varían desde 385 Kbps hasta llegar a 9 Mbps. Las conexiones de Internet por
cable que ofrecen los distribuidores de televisión por cable utilizan líneas
coaxiales de cable digital para ofrecer acceso a Internet de alta velocidad a
los hogares y negocios. Pueden proveer acceso de alta velocidad a Internet de
hasta 15 Mbps. En áreas en donde los servicios de DSL y de cable no están
disponibles, es posible acceder a Internet vía satélite, aunque algunas
conexiones tienen velocidades de envío más lentas que en otros servicios de
banda ancha. T1 y T3 son estándares telefónicos internacionales para la
comunicación digital. Son líneas dedicadas rentadas, adecuadas para las
empresas o agencias gubernamentales que requieren niveles de servicio
garantizados de alta velocidad.
DIRECCIONAMIENTO Y ARQUITECTURA
DE INTERNET
Para que una computadora tenga
acceso a Internet, los usuarios sólo necesitan especificar su nombre de dominio.
DNS tiene una estructura jerárquica. En la parte superior de la jerarquía DNS
se encuentra el dominio raíz. El dominio hijo de la raíz se denomina dominio de
nivel superior y el dominio hijo de un dominio de nivel superior se denomina
dominio de segundo nivel. Los dominios de nivel superior son nombres de dos o
tres caracteres con los que de seguro usted está familiarizado por navegar en
Web; por ejemplo, .com, .edu, .gov y los diversos códigos de países como .ca
para Canadá o .it para Italia. Los dominios de segundo nivel tienen dos partes,
las cuales designan un nombre de nivel superior y uno de segundo nivel —como
buy.com, nyu.edu o amazon. ca. Un nombre de host en la parte inferior de la
jerarquía designa una computadora específica, ya sea en Internet o en una red
privada.
Arquitectura y gobernanza de
Internet El tráfico de datos en Internet se transporta a través de
redes troncales de alta velocidad transcontinentales, que por lo general operan
en el rango de 45 Mbps a 2.5 Gbps en la actualidad casi todas estas líneas troncales
pertenecen a las compañías telefónicas de larga distancia o a los gobiernos
nacionales. Cada organización paga sus propias redes y servicios locales de
conexión a Internet, de lo cual una parte se paga a los propietarios de las
líneas troncales de larga distancia. Los usuarios individuales de Internet
pagan a los ISP por usar su servicio; por lo general se trata de una cuota de
suscripción fija, sin importar qué tanto o qué tan poco utilicen Internet. Las
políticas de Internet a nivel mundial se establecen a través de varias
organizaciones profesionales y organismos gubernamentales, como lo son; el
Consejo de Arquitectura de Internet (IAB), que ayuda a definir la estructura
general de Internet; la Corporación de Internet para la Asignación de Nombres y
Números (ICANN), que asigna direcciones IP, y el Consorcio World Wide Web
(W3C), encargado de establecer el lenguaje de marcado de hipertexto y otros
estándares de programación para Web.
Internet en el futuro: IPv6 e
Internet2 Se está desarrollando una nueva versión del esquema de
direccionamiento IP conocido como Protocolo de Internet versión 6 (IPv6), el
cual contiene direcciones de 128 bits (2 a la potencia de 128), o más de mil billones
de direcciones únicas posibles. Internet2 y próxima generación de Internet
(NGI) son consorcios que representan a 200 universidades, empresas privadas y
agencias gubernamentales en Estados Unidos, que trabajan en una nueva versión
robusta de Internet con ancho de banda alto. Los grupos de investigación de
Internet2 están desarrollando e implementando nuevas tecnologías para prácticas
de enrutamiento más efectivas; distintos niveles de servicio, dependiendo del
tipo y la importancia de los datos que se transmiten, y aplicaciones avanzadas
para computación distribuida, laboratorios virtuales, bibliotecas digitales,
aprendizaje distribuido y tele inmersión.
SERVICIOS DE INTERNET Y HERRAMIENTAS DE COMUNICACIÓN
En la actualidad las plataformas
cliente cuentan no sólo equipos PC y otras computadoras, sino también con
teléfonos celulares, pequeños dispositivos digitales de bolsillo y otros
dispositivos de información.
Servicios
de Internet
Una computadora cliente que se
conecta a Internet tiene acceso a una variedad de servicios, como el correo
electrónico, los grupos electrónicos de discusión, las salas de chat y la
mensajería instantánea, Telnet, el protocolo de transferencia de archivos (FTP)
y Web, cada servicio de Internet se implementa mediante uno o más programas de
software. Todos los servicios se pueden ejecutar en una sola computadora
servidor, o se pueden asignar distintos servicios a distintas máquinas.
Redes privadas virtuales En caso de que una empresa tenga un grupo
de marketing encargado de desarrollar nuevos productos y servicios para su
firma con miembros esparcidos en todo el territorio de Estados Unidos por
ejemplo sería conveniente que pudieran enviar y recibir correo electrónico
entre sí y comunicarse con la oficina central sin ninguna probabilidad de que
personas externas pudieran interceptar las comunicaciones, una solución económica
es crear una red privada virtual dentro de la red Internet pública. Una red
privada virtual (VPN) es una red privada segura y cifrada que se ha configurado
dentro de una red pública para aprovechar la economía de escala y las
facilidades administrativas de las grandes redes, como Internet. Se utilizan
varios protocolos competidores para proteger los datos que se transmiten a
través de la red Internet pública, como el Protocolo de Tunelización Punto a
Punto (PPTP9, en el cual, los paquetes de datos se cifran y envuelven dentro de
paquetes IP. Al agregar esta envoltura alrededor de un mensaje de red para
ocultar su contenido, las firmas de negocios crean una conexión privada que
viaja a través de la red Internet pública.
WEB
Es un sistema con estándares
aceptados de manera universal para almacenar, recuperar, dar formato y mostrar
información mediante el uso de una arquitectura cliente/servidor. Para dar
formato a las páginas Web se utiliza el hipertexto con vínculos incrustados que
conectan documentos entre sí, y que también vinculan páginas hacia otros
objetos, como archivos de sonido, video o animación
Hipertexto
Las páginas Web se basan en un Lenguaje de
Marcado de Hipertexto (HTML) estándar, el cual da formato a los documentos e
incorpora vínculos dinámicos a otros documentos e imágenes almacenadas en la
misma computadora o en equipos remotos. Se puede acceder a las páginas Web por
medio de Internet debido a que el software de navegador Web que opera en su computadora
puede solicitar las páginas almacenadas en un servidor host de Internet
mediante el protocolo de transferencia de hipertexto (HTTP).
ServidoresWeb
Un servidor Web consiste en
software para localizar y administrar páginas Web almacenadas. Localiza las
páginas Web solicitadas por un usuario en la computadora en donde están
almacenadas y las envía a la computadora del usuario. Por lo general, las
aplicaciones de servidor se ejecutan en computadoras dedicadas, aunque en
organizaciones pequeñas todas pueden residir en una sola computadora. El
servidor Web más común que se utiliza en la actualidad es el servidor Apache
HTTP, que controla el 54 por ciento del mercado.
Búsqueda de información en Web
Nadie sabe con certeza cuántas
páginas Web hay en realidad. La Web superficial es la parte de Web que visitan
los motores de búsqueda y sobre la cual se registra información. Los motores de
búsqueda tratan de resolver el problema de encontrar información útil en Web
casi al instante y, en definitiva, son la “aplicación asesina” de la era de
Internet, la gran mayoría de los resultados de búsqueda se suministran a través
de los tres principales proveedores: Google, Yahoo! y el motor de búsqueda Bing
de Microsoft. En 1994, los estudiantes David Filo y Jerry Yang de ciencias
computacionales de la Universidad de Stanford crearon una lista seleccionada a
mano de sus páginas Web favoritas y la llamaro“Otro oficioso oráculo jerárquico
(Yet Another Hierarchical Officious Oracle)”, o Yahoo!. En un principio no era
un motor de búsqueda, sino más bien una selección editada de sitios Web
organizados por n categorías que los editores encontraban de utilidad, pero a
partir de entonces desarrolló sus propias capacidades de motor de búsqueda. En
1998, Larry Page y Sergey Brin, otros dos estudiantes de ciencias
computacionales en Stanford, liberaron su primera versión de Google, el motor
de búsqueda de Google consulta el servicio Web en forma continua, indexa el
contenido de cada página, calcula su popularidad y almacena las páginas de modo
que pueda responder con rapidez a las solicitudes de un usuario para ver una
página. Todo el proceso tarda cerca de medio segundo. Los motores de búsqueda
se han convertido en importantes herramientas de compras al ofrecer lo que se
conoce ahora como marketing de motores de búsqueda. La
optimización de motores de búsqueda (SEO) es el proceso de mejorar la
calidad y el volumen del tráfico Web hacia un sitio Web, para lo cual se emplea
una serie de técnicas que ayudan a un sitio Web a obtener una mayor
clasificación con los principales motores de búsqueda cuando se colocan ciertas
palabras y frases clave en el campo de búsqueda. Existe lo que se llama también
Bots de compras de agentes inteligentes. Los bots de compras usan software de
agente inteligente para buscar en Internet la información sobre compras. Los
bots de compras tales como MySimon o Google Product Search pueden ayudar a las
personas interesadas en hacer una compra a filtrar y recuperar información
sobre los productos de interés, evaluar los productos competidores de acuerdo
con los criterios establecidos por los usuarios y negociar con los vendedores
en cuanto al precio y los términos de entrega.
Web 2.0
Los sitios Web en la actualidad
no sólo tienen contenido estático; también permiten a las personas colaborar y
compartir información, además de crear nuevos servicios y contenido en línea.
Estos servicios interactivos basados en Internet de segunda generación se
conocen como Web 2.0 esta tiene cuatro características distintivas:
interactividad, control del usuario en tiempo real, participación social
(compartición) y contenido generado por el usuario. Las tecnologías y servicios
detrás de estas características incluyen la computación en la nube, los mashups
y widgets de software, blogs, RSS, wikis y redes sociales. Las herramientas y
servicios Web 2.0 han impulsado la creación de redes sociales y otras
comunidades en línea, en donde las personas pueden interactuar entre sí según
lo deseen.
Web 3.0: el servicio Web del futuro
Web 1.0 resolvió el problema de
obtener acceso a la información. Web 2.0 resolvió el problema de compartir esa
información con otros, y de crear nuevas experiencias Web. Web 3.0 es la
promesa de una Web futura en donde toda esta información digital y todos estos
contactos se puedan entrelazar para formar una sola experiencia significativa.
Algunas veces a ésta se le conoce como Web semántica. La mayoría del contenido
de Web en la actualidad está diseñado para que los humanos lo lean y las
computadoras lo desplieguen, no para que los programas de computadora lo
analicen y manipulen. Los motores de búsqueda pueden descubrir cuándo aparece
un término o palabra clave específico en un documento Web, pero en realidad no
entienden su significado ni cómo se relaciona con el resto de la información en
Web. Las opiniones en cuanto al futuro del servicio Web varían, pero en general
se enfocan en las formas para aumentar la “inteligencia” Web, en donde la
comprensión de la información facilitada por las máquinas promueve una
experiencia más intuitiva y efectiva para el usuario. La labor de hacer del
servicio Web una experiencia más inteligente avanza con lentitud, en gran parte
debido a que es difícil hacer que las máquinas, o hasta los programas de
software, sean tan inteligentes como los humanos. Algunos ven una Web en 3-D,
en donde se puedan recorrer las páginas en un entorno tridimensional. Otros
señalan la idea de un servicio Web dominante que controle todo desde las luces
en su sala de estar hasta el espejo retrovisor de su auto, sin mencionar que
administre su calendario y sus citas.
LA REVOLUCIÓN INALÁMBRICA
. Los teléfonos celulares, las
computadoras laptop y los pequeños dispositivos de bolsillo se han transformado
en plataformas de cómputo portátiles que le permiten realizar algunas de las
tareas de computación que solía realizar en su escritorio. La comunicación
inalámbrica ayuda a las empresas a permanecer con más facilidad en contacto con
los clientes, proveedores y empleados, además de que provee arreglos más
flexibles para organizar el trabajo.
SISTEMAS CELULARES
Hay sistemas de telefonía celular
GSM en Estados Unidos, entre los que están T-Mobile y AT&T Wireless. El
principal estándar en Estados Unidos es el acceso múltiple por división de
código (CDMA), sistema que utilizan Verizon y Sprint. Se transmite a través de
varias frecuencias, ocupa el espectro completo y asigna de manera aleatoria
usuarios a un rango de frecuencias a través del tiempo. Las primeras
generaciones de los sistemas celulares se diseñaron en primera instancia para
la transmisión de voz y de datos limitados en forma de mensajes cortos. Ahora
las compañías de comunicaciones inalámbricas ofrecen redes celulares más poderosas
conocidas como redes de tercera generación o redes 3G, con velocidades de
transmisión que varían desde los 144 Kbps para los usuarios móviles, por
ejemplo en un auto, hasta 2 Mbps para los usuarios fijos.
REDES INALÁMBRICAS DE COMPUTADORAS Y ACCESO A INTERNET
Estos nuevos servicios de alta
velocidad tienen acceso extendido a Internet en muchas ubicaciones que no se
podrían cubrir mediante los servicios tradicionales fijos de Internet.
Bluetooth
Bluetooth es el nombre popular para el
estándar de redes inalámbricas 802.15, que es útil para crear pequeñas redes de
área personal (PAN). Vincula hasta ocho dispositivos dentro de un área de 10
metros mediante el uso de comunicación basada en radio de baja energía, y puede
transmitir hasta 722 Kbps en la banda de 2.4 GHz.
Wi-Fi y acceso inalámbrico a Internet
Las computadoras PC y netbook de
la actualidad tienen soporte integrado para Wi-Fi, al igual que los dispositivos
iPhone, iPad y otros teléfonos inteligentes. En casi todas las comunicaciones
Wi-Fi, los dispositivos inalámbricos se comunican con una LAN fija mediante el
uso de puntos de acceso. Un punto de acceso es una caja que consiste en un
receptor/transmisor de radio y antenas con vínculos a una red fija, un
enrutador o un concentrador (hub).
WiMax
. WiMax, que significa
interoperabilidad mundial para acceso por microondas, es el término popular
para el estándar 802.16 del IEEE. Tiene un rango de acceso inalámbrico de hasta
31 millas y una velocidad de transmisión de hasta 75 Mbps. Las antenas WiMax
son lo bastante poderosas como para transmitir conexiones a Internet de alta
velocidad a las antenas en los techos de los hogares y las empresas a millas de
distancia. Los teléfonos celulares y las computadoras laptop con capacidad para
WiMax están empezando a aparecer en el mercado. WiMax móvil es una de las tecnologías
de red previas a 4G.
REDES DE SENSORES INALÁMBRICAS Y RFID
Los sistemas de identificación por radio
frecuencia (RFID) ofrecen una tecnología poderosa para rastrear el movimiento
de productos a través de la cadena de suministro. Los sistemas RFID usan
diminutas etiquetas con microchips incrustados que contienen datos sobre un
artículo y su ubicación para transmitir señales de radio a través de una
distancia corta, a los lectores RFID. Después, los lectores RFID pasan los
datos a través de una red a una computadora para su procesamiento. La etiqueta
RFID se programa de manera electrónica con información que pueda identificar a
un artículo en forma única, además de información adicional sobre el artículo,
como su ubicación, en dónde y cuándo se fabricó, o su estado durante la
producción, tiene además incrustado un
microchip para almacenar los datos. El resto de la etiqueta es una antena que
transmite datos al lector.
A continuación les dejo un video hecho por mi, acerca de este capitulo, espero les ayude bastante!
¿Qué conceptos en
este capítulo se ilustran en este caso?
Los conceptos que se desarrollan
y son parte de este capítulo son:
Almacén de datos: Es una base de
datos que almacena información actual e histórica de interés potencial para los
encargados de tomar decisiones en la compañía. Este concepto se aplica a este
caso debido a que se almacena
información en los sistemas de agencias gubernamentales de Estados
Unidos para usarse en los esfuerzos por impedir o detectar los movimientos de
los terroristas conocidos o presuntos.
Mercado de datos: Un subconjunto
de almacén de datos, en el cual se coloca una porción de alto grado de enfoque
en los datos de la organización en una base de datos separada para una población
específica. Este concepto también se aplica en este caso debido a que no es a
toda la población que se incluye en esas listas si no a aquellas cuyas características
son de interés para la investigación de la lucha contra el terrorismo. Una vez
que los datos en línea se capturan y organizan en almacenes y mercados de datos
están disponibles para su posterior análisis, mediante el uso de herramientas
para inteligencia
Política de información: Es la
que especifica las reglas de la organización para compartir, diseminar,
adquirir responsabilizar, clasificar e inventariar la información. Este
concepto se ve reflejado en el caso en que como el mismo dice los registros en
la base de datos TSC contienen información confidencial pero no clasificada
sobre las identidades de los terroristas, como el nombre y la fecha de
nacimiento, que se pueden compartir con otras agencias de detección.
Administración de datos: Es responsable de las
políticas y procedimientos específicos, a través de los cuales se pueden
administrar los datos como un recurso organizacional. No se administran los datos de manera
adecuada.
Gobernanza de datos: Se encarga de las políticas y procedimientos para
administrar la disponibilidad, utilidad, integridad y seguridad de los datos
empleados en una empresa. No existe la
integridad y la completa seguridad de los datos, esto lo demuestra el caso al
existir tantas inconsistencias y errores.
Aseguramiento de la calidad de
datos: Se debe procurar que sean precisos y permanezcan confiables.
Limpieza de datos: consiste en
actividades para detectar y corregir datos en una base que sean incorrectos,
incompletos que tengan un formato inapropiado o que sean redundantes. No se
cuenta con una limpieza de datos eficiente ya que la misma base de datos no
detecta los errores y los corrige si no que es hasta que se investiga a la
persona y esta misma le indica a los funcionarios mediante sus datos más específicos
que no es la persona por la cual lo están confundiendo.
¿Por qué se creó la
lista de vigilancia de terroristas consolidada? ¿Cuáles son los beneficios de
la lista?
Se creó para consolidar la información sobre
los terroristas sospechosos de varias agencias gubernamentales en una sola
lista para mejorar la comunicación entre las agencias se creó una base de datos de terroristas
sospechosos conocida como la lista de vigilancia de terroristas. Varias
agencias gubernamentales de Estados Unidos habían estado manteniendo listas
separadas y carecían de un proceso consistente para compartir información
relevante.
Beneficios
1)Mayor comunicación a nivel interno de las
agencias gubernamentales. Ya que se puede llevar a cabo un control más específico
de las personas que desean ingresar al país.
2) Se puede
usar en los esfuerzos por impedir o detectar los movimientos de los terroristas
conocidos o presuntos.
Describa algunas de
las debilidades de la lista de vigilancia. ¿Qué factores de administración,
organización y tecnología son responsables de estas debilidades?
· Los informes
de la oficina de auditoría general y la oficina del inspector general aseguran
que la lista contiene imprecisiones y que las políticas departamentales del
gobierno para nominar y quitar personas de la lista no son uniformes.
·También se ha generado una protesta pública
debido al tamaño de la lista y los incidentes tan publicitados de personas que
sin duda no son terroristas y descubren que se encuentran en la lista.
·Se requiere una información más detallada a la
hora de introducir personas a lista.
·No hay un proceso simple y rápido de
rectificación para los inocentes que esperan salir de la lista.
·Muchas aerolíneas no incluyen género, segundo
nombre o fecha de nacimiento en sus registros de reservaciones, lo cual
incrementa la probabilidad de falsas coincidencias
FACTORES DE ADMINISTRACION:
La administración es la encargada
generalmente de tomar las decisiones, en este caso le recae responsabilidad ya
que no implementa un proceso responsable al momento de seleccionar a la persona
que se va a incluir en esa lista.
FACTORES DE ORGANIZACIÓN
A pesar de que
se han realizado mejoras, se deberían de repartir de mejor manera las
funciones, dar más capacitación ya que se ha demostrado que con la que se ha
dado no es suficiente para poder agilizar los procesos en los casos en los que
se presenta un fallo, utilizar mejores recursos que faciliten los procesos.
FACTORES DE TECNOLOGIA
En cuanto a los factores de tecnología,
Estados Unidos cuenta con una tecnología muy eficiente para llevar a cabo estos
procesos, sin embargo no se están llevando a cabo una buena administración de
datos una adecuada política de información.
O una adecuada gobernanza de datos.
¿Qué tan efectivo es
el sistema de las listas de vigilancia descrito en este caso de estudio?
Explique su respuesta.
Por supuesto que es efectivo ya
que como se ha mencionado anteriormente permite rastrear tantos terroristas
potenciales como sea posible y eso evidentemente es bueno y le da más seguridad
a la población de Estados Unidos sin embargo, su efectividad no es tan grande
debido a que también provocan muchas más entradas erróneas en la lista de las que se
generarían si el proceso requiriera información mucho más detallada para
agregar nuevas entradas y estos incidentes cuestionan la calidad y la precisión
de los datos en la lista de vigilancia de terroristas consolidada del TSC.
Si fuera responsable de la administración de la base de datos de la
lista de vigilancia del TSC, ¿qué acciones tomaría para corregir algunas de
estas debilidades?
Bueno en el caso se menciona que
actualmente no hay un proceso simple y rápido en la rectificación de inocentes
que esperan ser removidos de la lista, por lo tanto en primera instancia con la
facilidad del almacén de datos, el mercado de datos, las políticas de información
o gobernanza de información no deberían de darse tantas falsas alarmas, es
decir debería de realizarse una investigación y captación de datos más a fondo
de las personas que pueden ser posibles candidatos a terroristas pero de las
cuales no hay seguridad, antes de incluirlas en las listas, para que no hayan
tantos inocentes en esas listas. Y en caso de que se incluyan entonces pedir
ayuda de técnicos en sistemas de información muy capacitados que puedan
realizar un software o un programa que facilite el proceso de la salida de
estas personas de esa lista.
¿Cree usted que la lista de
vigilancia de terroristas representa una amenaza considerable para la
privacidad o los derechos constitucionales de los individuos? ¿Por qué sí o por
qué no?
Considero que no del todo ya que
no se necesitan datos demasiado personales para detectar esto a menos de que
sea una persona que tenga muchas coincidencias además, es casi inevitable que
no se tenga que llevar a cabo un proceso de investigación a fondo de las
personas para así poder identificar si son potenciales terroristas o simples
coincidencias, entonces considero que si las personas no quieren verse
sometidas a la tediosa situación de estar incluida en la lista entonces deberá
someterse a que sus características o datos personales se vean expuestos, ya
que se trata de la seguridad del país y de no pasar por el proceso largo de la
salida de la lista.
Organización de los datos en un
entorno de archivos tradicional
La administración de datos es de
gran relevancia ya que si una empresa no
tiene la información necesaria, precisa o la más importante, puede ser porque
los datos en sus sistemas de información se han organizado de mal manera y no
se han sabido mantener de manera apropiada. Esto se comprende de mejor forma
analizando cómo es que los sistemas de información organizan los datos en
archivos de computadora, junto con los métodos tradicionales de administración
de archivos.
TÉRMINOS Y CONCEPTOS DE ORGANIZACIÓN DE
ARCHIVOS
Precisamente al observar este
tema no es fácil a simple vista el concepto
de archivos tradicionales y organización de archivos a nivel de sistemas de información
sin embargo este libro lo explica muy
bien refiriéndose a que un sistema computacional organiza los datos en una
jerarquía que empieza con bits y bytes, y progresa hasta llegar a los campos,
registros, archivos y bases de datos. Un bit representa la unidad más pequeña
de datos que una computadora pue de manejar. Un grupo de bits, denominado byte,
representa a un solo carácter, que puede ser una letra, un número u otro
símbolo. Pero también esta lo que se denomina campo que es un agrupamiento de
caracteres en una palabra, un conjunto de palabras o un número completo (como
el nombre o la edad de una persona) y un grupo de campos relacionados, como el
nombre del estudiante, el curso que va a tomar, la fecha y la calificación,
representan un registro y un grupo de registros del mismo tipo se denomina
archivo y un grupo de archivos relacionados constituye una base de datos. Se
podría agrupar con los archivos en los historiales personales de los
estudiantes y sus antecedentes financieros, esto con el fin de crear una base
de datos de estudiantes. Pero la cadena continua ya que un registro describe a
una entidad y una entidad es una persona, lugar, cosa o evento sobre el cual se
almacena y se mantiene información, además
de que cada cualidad que describe a una
entidad específica se denomina atributo.
PROBLEMAS CON EL ENTORNO DE ARCHIVOS
TRADICIONAL
Contabilidad, finanzas,
manufactura, recursos humanos, ventas y marketing han desarrollado sus propios
sistemas y archivos de datos. Desde luego que cada aplicación requería sus
propios archivos y programa para operar. Generalmente, este proceso conduce a
varios archivos maestros creados, mantenidos y operados por divisiones o
departamentos separados. Los problemas que resultan de esto son la redundancia
e inconsistencia de los datos, la dependencia programa-datos, la
inflexibilidad, la seguridad defectuosa de los datos y la incapacidad de
compartir datos entre aplicaciones. Al describir el primer problema redundancia
e inconsistencia de los datos que se refiere a la presencia de datos duplicados
en varios archivos, así que se almacenan los mismos datos en más de un lugar o
ubicación. La redundancia ocurre cuando distintos grupos en una organización
recolectan por separado la misma pieza de datos y la almacenan de manera
independiente unos de otros. La confusión resultante dificultaría a las
compañías el proceso de crear sistemas de administración de relaciones con el
cliente, de administración de la cadena de suministro o sistemas empresariales
que integren datos provenientes de distintas fuentes. En cuanto al problema de
la dependencia programa-datos es referido al acoplamiento de los datos
almacenados en archivos y los programas específicos requeridos para actualizar
y dar mantenimiento a esos archivos, de manera que los cambios en los programas
requieran cambios en los datos. Todo programa de computadora tradicional tiene
que describir la ubicación y naturaleza de los datos con los que trabaja. Aquí se
aclara el concepto de archivos tradicional ya que en este entorno, cualquier
cambio en un programa de software podría necesitar un cambio en los datos a los
que tiene acceso ese programa. Tal vez un programa se modifique de un código
postal de cinco dígitos a nueve. Si el archivo de datos original se cambiara
para usar códigos postales de nueve dígitos en vez de cinco, entonces otros
programas que requirieran el código postal de cinco dígitos ya no funcionarían
en forma apropiada y el detalle importante y desventajoso es que la
implementación apropiada de dichos cambios podría costar millones de dólares.
El otro problema es la falta de
flexibilidad esto es que un sistema de archivos tradicional tiene la
posibilidad de entregar informes programados de rutina luego de determinado
esfuerzo extenso de programación, pero no tiene la flexibilidad de entregar informes ad hoc ni responder de
manera oportuna a los requerimientos de información no anticipados. La
información que se necesita por las solicitudes ad hoc está en alguna parte del
sistema, pero el problema es que puede ser
bastante costoso recuperarla. Puede darse el caso de que varios
programadores tengan que trabajar durante semanas para reunir los elementos de
datos requeridos en nuevo archivo. La seguridad defectuosa es otro problema ya
que se lleva a cabo poco control o poca administración de los datos, el acceso
a la información, así como su diseminación, pueden estar sin ningún o poco
control. Probablemente la gerencia no tenga forma de saber quién está
accediendo a los datos de la organización, o tenga acceso a modificarlos. Y
continuando con los problemas la falta de compartición y disponibilidad de los
datos es otro ya que como las piezas de información en los distintos archivos y
las diferentes partes de la organización no tienen relación entre sí, es casi
imposible compartir o acceder a la información de una manera adecuada. La
información no se presta para que fluya libremente entre las diferentes áreas funcionales.
Si los usuarios encuentran valores desiguales de la misma pieza de información
en dos sistemas diferentes, tal vez no quieran usar estos sistemas debido a que
no pueden confiar en la precisión de sus datos.
LA METODOLOGÍA DE LAS BASES DE
DATOS PARA LA ADMINISTRACIÓN DE DATOS
Una base de datos es una colección de datos
organizados con el propósito de dar servicio a muchas aplicaciones de manera
eficiente, al centralizar los datos y controlar los que son redundantes. El
detalle se encuentra en que en vez de guardar los datos en archivos separados
para cada aplicación, se almacenan de manera que los usuarios piensen que están
en una sola ubicación. Una sola base de datos da servicio a varias
aplicaciones.
SISTEMAS DE ADMINISTRACIÓN DE
BASES DE DATOS
Para comenzar esclareciendo
conceptos un Sistema de Administración de Bases de Datos (DBMS) es software que
le da la posibilidad a una organización de
centralizar los datos, administrarlos eficientemente y proveer acceso a
los datos almacenados mediante programas de aplicación. El DBMS actúa como una
interfaz entre los programas de aplicación y los archivos de datos físicos. Cuando
el programa de aplicación solicita un elemento de datos, como el sueldo bruto,
el DBMS lo busca en la base de datos y lo presenta al programa de aplicación. En
cambio si utilizara archivos de datos tradicionales, el programador tendría que
especificar el tamaño y formato de cada elemento de datos utilizado en el
programa y después decir a la computadora en dónde están ubicados. El DBMS le
quita la carga al programador o al usuario final de comprender en dónde y cómo
están almacenados los datos en realidad, al separar las vistas lógica y física
de los datos. Aquí es importante detenerse a analizar que la vista lógica
presenta los datos de acuerdo con la manera en que los observan los usuarios
finales o los especialistas de negocios, y la vista física muestra la verdadera
forma de organización y estructuración de datos en los medios de almacenamiento
físicos. Un DBMS resuelve los problemas del entorno de archivos tradicionales ya que disminuye la redundancia e
inconsistencia de los datos al minimizar los archivos aislados en los que se repiten
los mismos datos. Es probable que el DBMS no logre que la organización elimine la
redundancia de datos del todo, pero puede ayudar a controlarla. El DBMS
desacopla los programas y los datos, con lo cual estos últimos se pueden
independizar por eso soluciona el problema de la dependencia de programa-datos.
Se tendrá más acceso y disponibilidad de
la información, y también se disminuirán los costos de desarrollo y
mantenimiento de los programas debido a que los usuarios y programadores pueden
realizar consultas ad hoc de la informaciónen la base de datos. El DBMS además
ataca otro problema el de la seguridad ya que permite a la organización
administrar los datos, su uso y su seguridad en forma central.
DBMS relacional
El DBMS relacional es el tipo más popular de
sistemas DBMS en la actualidad para PCs y computadoras más grandes. Las bases
de datos relacionales representan los datos como tablas bidimensionales a las
cuales se les llama relaciones, a estas se les puede hacer referencia como si
fueran archivos. Cada tabla contiene datos sobre una entidad y sus atributos. La
manera en la que organiza una base de
datos relacional la información sobre proveedores y piezas es que a base de
datos tiene una tabla separada para la entidad proveedor y una para la entidad
pieza. Cada elemento individual de datos para cada entidad se almacena como un
campo separado, y cada campo es un atributo para esa entidad. La información
real sobre un solo proveedor que reside en una tabla se denomina fila. Los
datos para la entidad pieza tienen su propia tabla separada. También existen las
bases de datos orientadas a objetos que almacena los datos y los procedimientos
que actúan sobre esos datos como objetos que se pueden recuperar y compartir de
manera automática. Los Sistemas de Administración de Bases de Datos Orientados
a Objetos (OODBMS) se pueden utilizar para manejar los diversos componentes
multimedia o los applets de Java que se utilizan en las aplicaciones Web, que
por lo general integran piezas de información provenientes de una variedad de orígenes,
eso sí, son lentos en comparación con
los DBMS relacionales para procesar grandes números de transacciones. Pero una
vez vistos los relacionales y los de objetos podemos ver que existen los
sistemas DBMS objeto-relacional híbridos, que ofrecen las capacidades de los
sistemas DBMS tanto orientados a objetos como relacionales.
CAPACIDADES DE LOS SISTEMAS DE
ADMINISTRACIÓN DE BASES DE DATOS
Un DBMS tiene capacidades y
herramientas para organizar, administrar y acceder a los datos en la base de
datos, de estas las más importantes son: su lenguaje de definición de datos, el
diccionario de datos y el lenguaje de manipulación de datos. Los DBMS tienen
una capacidad de definición de datos para especificar la estructura del
contenido de la base de datos esto es importante debido a que podría usarse
para crear tablas de bases de datos y así definir las características de los
campos en cada tabla. La otra capacidad es importante ya que esta información
sobre la base de datos se puede documentar en un diccionario de datos, esto es
un archivo automatizado o manual que almacena las definiciones de los elementos
de datos y sus características. Los diccionarios de datos para las grandes
bases de datos corporativas pueden capturar información adicional, como el uso,
la propiedad (quién en la organización es responsable de dar mantenimiento a la
información), autorización, seguridad y los individuos, funciones de negocios,
programas e informes que utilizan cada elemento de datos. La mayoría de los
DBMS tienen un lenguaje especializado conocido como lenguaje de manipulación de
datos el cual se utiliza para agregar, modificar, eliminar y recuperar los
datos en la base. Este lenguaje contiene comandos que permiten a los usuarios
finales y a los especialistas de programación extraer los datos de la base para
satisfacer las solicitudes de información y desarrollar aplicaciones.
DISEÑO DE BASES DE DATOS
Primeramente hay que tener claro
que para diseñar una base de datos hay que entender las relaciones entre la
información, el tipo de datos que se mantendrán en la base, cómo se utilizarán
y la forma en que tendrá que cambiar la organización para administrarlos desde
una perspectiva a nivel de toda la compañía. La base de datos requiere tanto un
diseño conceptual como uno físico, el diseño conceptual de la base de datos es un modelo abstracto de ésta
desde una perspectiva de negocios, mientras que el diseño físico muestra la
verdadera disposición de la base de datos en los dispositivos de almacenamiento
de acceso directo.
Diagramas de normalización y de
entidad-relación
El diseño de bases de datos conceptual
describe la forma en que se deben agrupar los elementos de datos en la base. El proceso de diseño identifica las relaciones
entre los elementos de datos y la manera más eficiente de agruparlos en
conjunto para satisfacer los requerimientos de información de la empresa. Este
proceso también identifica a los elementos de datos redundantes y las
agrupaciones de elementos de datos requeridas para ciertos programas de
aplicaciones específicos. Los grupos de datos se organizan, refinan y optimizan
hasta que emerge una vista lógica general de las relaciones entre todos los
datos en la base.
USO DE BASES DE DATOS PARA
MEJORAR EL DESEMPEÑO DE NEGOCIOS Y LA TOMA DE DECISIONES
Pagar a los proveedores, procesar
pedidos, llevar el registro de los clientes y pagar a los empleados, son
algunas de las operaciones que puede realizar una empresa gracias a la utilización
de sus bases de datos. Pero además su importancia se refleja en que se
necesitan bases de datos para suministrar información que colabora a la
compañía a operar sus negocios eficientemente, y ayudar a los gerentes y
empleados a tomar mejores decisiones. Si una compañía desea saber cuál producto
es el más popular o quién es su cliente más rentable, la respuesta radica en
los datos.
ALMACENES DE DATOS
Un almacén de datos es una base
de datos que almacena la información actual e histórica de gran interés para
los encargados de tomar decisiones en la compañía. Los datos se originan en
muchos sistemas de transacciones operacionales básicos, como los sistemas de
ventas, las cuentas de clientes, la manufactura, y pueden incluir datos de
transacciones de sitios Web. El almacén de datos consolida y estandariza la
información de distintas bases de datos operacionales, de modo que se pueda
utilizar en toda la empresa para el análisis gerencial y la toma de decisiones.
HERRAMIENTAS PARA LA INTELIGENCIA
DE NEGOCIOS: ANÁLISIS DE DATOS MULTIDIMENSIONAL Y MINERÍA DE DATOS
Las principales herramientas para la inteligencia de negocios incluyen el software para consultas e informes de
bases de datos, herramientas para el análisis de datos multidimensional
(procesamiento analítico en línea), y herramientas para la minería de datos.
Minería de datos: La minería de
datos está más orientada al descubrimiento , al encontrar patrones y relaciones
ocultas en las bases de datos grandes e inferir reglas a partir y reglas se
utilizan para guiar la toma de decisiones y pronosticar el efecto de esas
decisiones. Los tipos de información que se pueden obtener de la minería de
datos son: asociaciones, secuencias, clasificaciones, agrupamientos y
pronósticos.
Minería de datos y minería Web: Existen herramientas
que pueden extraer elementos clave de los conjuntos de datos extensos no
estructurados, descubrir patrones y relaciones, así como sintetizar la
información. Las empresas podrían recurrir a la minería de texto para analizar
las transcripciones de los call centers de servicio al cliente para identificar
las principales cuestiones de servicio y reparación. También existe lo llamado minería de estructura Web que extrae
información útil de los vínculos incrustados en documentos Web.
LAS BASES DE DATOS Y WEB
Actualmente son muchas las compañías que utilizan Web para poner parte de
la información en sus bases de datos internas a disposición de los clientes y
los socios de negocios. Existen varias ventajas en cuanto al uso de Web para
acceder a las bases de datos internas de una organización. La primera es que el
software de navegador Web es mucho más fácil de usar que las herramientas de
consulta propietarias, la segunda es que la interfaz Web requiere pocos o
ningún cambio en la base de datos interna.
ADMINISTRACIÓN DE LOS RECURSOS DE
DATOS
ESTABLECIMIENTO DE UNA POLÍTICA
DE INFORMACIÓN
La política de información
establece procedimientos y rendiciones de cuentas específicos, identifica qué
usuarios y unidades organizacionales pueden compartir información, en dónde
distribuirla y quién es responsable de actualizarla y mantenerla. Si se analiza
en una empresa pequeña, los propietarios o gerentes son los que establecerían e
implementarían la política de información, en cambio en una organización
grande, administrar y planificar la información, requiere con frecuencia de una
función de administración de datos formal. La administración de datos es
responsable de las políticas y procedimientos específicos a través de los
cuales se pueden administrar los datos como un recurso organizacional. Estas
responsabilidades abarcan el desarrollo de la política de información, la
planificación de los datos, la supervisión del diseño lógico de la base de
datos, y el desarrollo del diccionario de datos, así como el proceso de
monitorear la forma en que los especialistas de sistemas de información y los
grupos de usuarios finales utilizan los datos.
Para entender este apartado es
necesario recordar que la infraestructura de tecnología de la información es el
conjunto de recursos de tecnología compartidos que suministran la plataforma de
TI para las aplicaciones de sistemas de información específicas para la
empresa. Contar en una organización con esa infraestructura es importante porque
proporciona la base para dar servicio a los clientes, trabajar con los
distribuidores y gestionar los procesos de negocios internos y debido a que son
tan importantes y valiosas en una organización es que son asimismo inversiones costosas , las inversiones en infraestructura
representan entre el 25 y 50 por ciento de los gastos en tecnología de la
información en las empresas grandes, encabezadas por las de servicios
financieros en las que la TI representa más de la mitad de toda la inversión de
capital.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI
50 años de estar evolucionando
las computadoras, para que las organización puedan aprovechar actualmente todas
las funcionalidades de las mismas, esta evolución consta de 5 etapas que son: la
computación con mainframes y minicomputadoras de propósito general, las
microcomputadoras mejor conocidas como computadoras personales, las redes
cliente/servidor, la computación empresarial y la computación en la nube y
móvil. A continuación una breve descripción de lo más relevante de cada era:
Era de las mainframes y minicomputadoras de propósito general (1959
a la fecha): Al incorporarse las máquinas transistorizadas IBM 1401 y 7090 en
1959 se marcó el comienzo del uso comercial extendido de las computadoras
mainframe. La computadora comercial con un poderoso sistema operativo que podía
proporcionar tiempo compartido, multitareas y memoria virtual en modelos más
avanzados, fue la primera computadora mainframe de la serie IBM 360. Fue un
periodo de computación con mucha centralización bajo el control de
programadores y operadores de sistemas profesionales, en donde la mayoría de
los elementos de la infraestructura los proveía un solo distribuidor, el
fabricante del hardware y del software, esto comenzó a cambiar con la llegada
de las minicomputadoras producidas por Digital Equipment Corporation (DEC) en
1965. Las minicomputadoras DEC (PDP-11 y más adelante las máquinas VAX) su gran
utilidad es que prometían máquinas poderosas
a precios mucho más reducidos que las
mainframes de IBM, lo que creo la computación descentralizada, personalizada de
acuerdo a las necesidades específicas de
los departamentos individuales o las unidades de negocios ya se dejo de compartir
el tiempo en una sola y enorme mainframe, cabe destacar que la minicomputadora evolucionó en una
computadora o servidor de medio rango y forma parte de una red. Por lo tanto se
viene la Era de la computadorapersonal (1981 a la fecha) La
computadora Wintel PC (sistema operativo Windows en una computadora con un
microprocesador Intel, se convirtió en la computadora personal de escritorio
estándar. Estas PCs eran sistemas independientes hasta que el software de
sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes. Luego
se introduce la Era cliente/servidor
(1983 a la fecha) esto es que las
computadoras de escritorio o laptop conocidas como clientes se conectan en red
a poderosas computadoras servidores que proveen a las computadoras clientes una
variedad de servicios y herramientas, el cliente es el punto de entrada del
usuario, mientras que el servidor por lo general procesa y almacena datos
compartidos, sirve páginas Web o gestiona las actividades de la red, es
importante reconocer determinados conceptos para entender esta materia como por
ejemplo el término “servidor” que se
refiere tanto a la aplicación de software como a la computadora física en la
que se ejecuta el software de red, el procesamiento se divide entre los dos
tipos de máquinas a esto se le llama arquitectura cliente/servidor de dos
niveles. Pueden existir redes
cliente/servidor desde las más simples hasta las más complejas dependiendo de
la organización. Su importancia radica en que permite a las empresas distribuir
el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que
cuestan mucho menos que las minicomputadoras o los sistemas mainframe
centralizados. Luego se incorpora la Era
de la computación empresarial (1992 a la fecha) se dan sus inicios cuando a
principios de la década de 1990, las empresas recurrieron a estándares de redes
y herramientas de software que pudieran integrar redes y aplicaciones dispares
esparcidas por toda la empresa en una infraestructura a nivel empresarial. La infraestructura
de TI que resulta de esto es la que enlaza distintas piezas de hardware de
computadora y redes más pequeñas en una sola red a nivel empresarial, entonces la
información pueda fluir con libertad por toda la organización, y también entre
la empresa y otras organizaciones; cuenta con infraestructuras públicas como el
sistema telefónico, Internet y los servicios de redes públicas, para todo esto se
requiere la utilización de un software. Pero las eras no terminan porque la tecnología
es lo que evoluciona más rápido y por lo tanto surge la Era de
la computación en la nube y móvil (2000 a la fecha) se da un avance en el
modelo cliente/servidor hacia el Modelo de computación en la nube, gracias al
poder cada vez mayor del ancho de banda de Internet. La computación en la nube
es un modelo de cómputo que suministra acceso a una reserva compartida de
recursos computacionales (computadoras, almacenamiento, aplicaciones y
servicios) a través de una red, que por lo general es Internet, actualmente, la
computación en la nube es la forma de computación con crecimiento más rápido.
Las empresas de software como Google, Microsoft, SAP, Oracle y Salesforce. com
venden aplicaciones de software como servicios que se ofrecen a través de
Internet.
IMPULSORES TECNOLÓGICOS EN LA
EVOLUCIÓN DE LA INFRAESTRUCTURA
Se han dado desarrollos en el
procesamiento de computadoras, y esto ha aumentado en gran manera el poder del cómputo,
de ahí toda la evolución que han tenidos las computadoras y a pesar de que la inversión
es grande, a largo plazo los costos disminuyen también en gran cantidad. Los
desarrollos más importantes son: La ley
de Moore y el poder de los microprocesadores Gordon Moore es un director de
los Laboratorios de investigación y desarrollo de Fairchild Semiconductor, fue
uno de los primeros que fabrico circuitos integrados, escribió en la revista
Electronics que desde la introducción del primer chip microprocesador en 1959,
el número de componentes en un chip con los menores costos de fabricación por
componente se había duplicado cada año, y esto fue precisamente lo que se
convirtió en la base de la ley de Moore. Después, redujo la tasa de crecimiento
al doble cada dos años. Ahora existen al
menos tres variaciones de ella, cabe destacar que ninguna fue proyectada por
Moore. Un aspecto importante y llamativo
es que los transistores de la actualidad ya no deben tener comparación con el
tamaño de un cabello humano, sino con el de un virus ya que por medio del uso
de la nanotecnología, los fabricantes de chips pueden reducir el tamaño de los
transistores hasta la anchura de varios átomos.
Ley del almacenamiento digital masivo, esta ley es un segundo
impulsor de tecnología de la infraestructura de TI, la cantidad de información
digital se duplica cada año. Por fortuna, el costo de almacenar información
digital se está reduciendo a una tasa exponencial del 100 por ciento cada año. La ley de Metcalfe y la economía de red
se suman a este conjunto de leyes, Robert Metcalfe quien fue el inventor de la
tecnología de red de área local Ethernet. La demanda de tecnología de la
información funciona con base en el valor social y comercial de las redes
digitales, que multiplican con rapidez los enlaces actuales y potenciales entre
los miembros de la red.
Reducción en los costos de las
comunicaciones e Internet, se menciona debido a que también fue un factor
que impulso la tecnología de la infraestructura de TI y que a su vez la
transformo consiste en la rápida reducción en los costos
de la comunicación y el crecimiento exponencial en el tamaño de Internet. A medida
que disminuyen los costos de comunicación y llegan a una cifra muy pequeña que
se acerca a 0, por supuesto aumenta el uso de las herramientas de
comunicaciones y computación.
Estándares y efectos de la red
Los estándares de tecnología
desencadenan poderosas economías de escala y provocan reducciones en los precios,
a medida que los fabricantes se enfocan en producir los productos con base en
un solo estándar. Sin estas economías de escala, la computación de cualquier
tipo sería mucho más costosa de lo actual.
COMPONENTES DE LA INFRAESTRUCTURA
En la actualidad, la infraestructura de TI
está compuesta de siete componentes principales. La figura 5-9 ilustra estos
componentes y los principales distribuidores dentro de cada categoría. Estos
son inversiones que se deben coordinar entre sí para proporcionarle a la empresa una infraestructura adecuada. Estos
7 componentes son: plataformas de hardware de computadora, plataformas de
sistemas operativos, aplicaciones de software empresariales,
redes/telecomunicaciones, consultores e integradores de sistemas, gestión y
almacenamiento y plataformas de Internet. En cuanto a las plataformas de hardware de computadora, el mercado para el hardware
de computadora se enfoca cada vez más en las principales empresas como IBM, HP,
Dell y Sun Microsystems (adquirida por Oracle), y en tres productores de chips:
Intel, AMD e IBM. La industria se decidió en forma colectiva por Intel como el
procesador estándar, aunque hay importantes excepciones en el mercado de
servidores para las máquinas Unix y Linux, que podrían usar procesadores Sun o
IBM Unix. Las mainframes no han desaparecido, sino que más bien se ha
incrementado su mercado de manera estable durante la última década, aunque el
número de proveedores se redujo a uno que es IBM. Además, este proveedor readaptó sus
sistemas mainframe para poder utilizarlos como servidores gigantes en redes
empresariales masivas y sitios Web corporativos. En cuanto a las plataformas de sistemas operativos Microsoft
Windows Server es capaz de proveer un sistema operativo y servicios de red a
nivel empresarial, y llama la atención de las organizaciones que buscan
infraestructuras de TI basadas en Windows (IDC, 2010). Unix y Linux son
escalables, confiables y mucho menos costosos que los sistemas operativos de
mainframe. También se pueden ejecutar en muchos tipos distintos de
procesadores. Los principales proveedores de sistemas operativos Unix son IBM,
HP y Sun, cada uno con versiones ligeramente distintas e incompatibles en
ciertos aspectos. Las formas de sistema operativo se utilizan para administrar
los recursos y actividades de la computadora. El sistema Chrome OS de Google
provee un sistema operativo ligero para la computación en la nube mediante el
uso de netbooks, Microsoft introdujo el sistema operativo Windows Azure para
sus servicios y plataforma en la nube. Android es un sistema operativo móvil
desarrollado por Android, estos son algunos ejemplos. El software de sistema
operativo cliente convencional está diseñado con base en el ratón y teclado,
pero cada vez se vuelve más natural e intuitivo gracias al uso de la tecnología
táctil. Como mencione anteriormente otro de los componentes son las aplicaciones
de software empresariales. Los proveedores más importantes de software de
aplicaciones empresariales son SAP y Oracle.En esta categoría se encuentra el software middleware que suministran los
distribuidores tales como BEA, para alcanzar una integración a nivel
empresarial a través de la vinculación de los sistemas de aplicaciones que ya
existen en la empresa. Continnnuo con otro componente que es la administración y
almacenamiento de datos Organizar y administrar la información de la empresa
para poder acceder a ella y utilizarla de manera adecuada, es una tarea del
software de gestión de bases de datos empresariales , debido a que la cantidad
de nueva información incrementa de
manera extraordinaria en el mundo es que el mercado para los dispositivos de
almacenamiento de datos digitales ha estado creciendo a más del 15 por ciento
anual durante los últimos cinco años, las empresas grandes están requiriendo las tecnologías de almacenamiento basadas en
red. Las redes de área de almacenamiento (SAN) conectan varios dispositivos en
una red separada de alta velocidad, dedicada al almacenamiento. La SAN crea una
gran reserva central de almacenamiento disponible para que varios servidores
accedan a ella y la compartan. Otro de los componentes que se suman a estos 7
son las plataformas de
redes/telecomunicaciones. Los
proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent,
Nortel y Juniper Networks. Por lo general, las compañías de servicios de
telecomunicaciones/telefónicos que ofrecen conectividad de voz y datos, redes
de área amplia, servicios inalámbricos y acceso a Internet son las que proveen
las plataformas de telecomunicaciones. Pero también las plataformas de Internet son componentes que deben estar
relacionadas con la infraestructura de redes general de la empresa, además de
sus plataformas de hardware y software, se realizan gastos de hardware,
software y servicios administrativos para dar soporte al sitio Web de una
empresa, que involucra servicios de hospedaje Web, enrutadores y cableado o
equipo inalámbrico. Los servicios de consultoría
e integración de sistemas es otro componente. Si una organización quiere
implementar una nueva infraestructura se necesita que realice cambios
considerables en los procesos y procedimientos de negocios, capacitación y
educación, e integración de software, la integración de software es tener la
seguridad de que la nueva infraestructura funcione con los sistemas anteriores
de la empresa, conocidos como sistemas heredados, y también es asegurar que los
nuevos elementos de la infraestructura puedan trabajar en conjunto. Por lo
general los sistemas heredados son sistemas de procesamiento de transacciones
antiguos, creados para computadoras mainframe que se siguen utilizando para
evitar el alto costo de reemplazarlos o rediseñarlos. También forma parte de
estos componentes la plataforma digital móvil
emergente la nueva plataforma móvil también incluye pequeñas subnotebooks
ligeras y de bajo costo conocidas como netbooks, optimizadas para la
comunicación inalámbrica y el acceso a Internet, con funciones de cómputo
básicas tales como procesamiento de palabras; computadoras tipo tableta como el
iPad, y lectores digitales de libros electrónicos como el Kindle de Amazon, con
ciertas capacidades de acceso a Web. Y por último está el componente de computación
en malla que es el proceso de conectar computadoras separadas por límites
geográficos en una sola red para crear una supercomputadora virtual, al
combinar el poder computacional de todas las computadoras en la malla. De aquí
sale un concepto llamado virtualización que
es el proceso de presentar un conjunto de recursos de cómputo de manera que se
pueda acceder a todos ellos en formas que no estén restringidas por la
configuración física o la ubicación geográfica. La virtualización permite a un
solo recurso físico (como un servidor o un dispositivo de almacenamiento)
aparecer ante el usuario como varios recursos lógicos, también permite que
varios recursos físicos (como dispositivos de almacenamiento o servidores)
aparezcan como un solo recurso lógico, como sería el caso con las redes de área
de almacenamiento o la computación en malla.
COMPUTACIÓN EN LA NUBE
La computación en la nube, es en
donde las empresas y los individuos obtienen procesamiento computacional,
almacenamiento, software y otros servicios como una reserva de recursos
virtualizados a través de una red, principalmente Internet. Estos recursos se
ponen a disposición de los usuarios con base en sus necesidades, sin importar
su ubicación física o la de los mismos usuarios. El Instituto nacional
estadounidense de estándares y tecnología (NIST) define la computación en la
nube como algo que contiene las siguientes características esenciales: autoservicio
bajo demanda, acceso ubicuo a la red, agrupamiento de recursos independiente de
la ubicación, elasticidad rápida, servicio medido, infraestructura en la nube
como un servicio, plataforma en la nube como un servicio y Software en la nube
como un servicio. Una nube privada es una red propietaria o un centro de datos
propietario que enlaza servidores, almacenamiento, redes, datos y aplicaciones
como un conjunto de servicios virtualizados que los usuarios comparten dentro
de una compañía. Al igual que las nubes públicas, las nubes privadas pueden
asignar almacenamiento, poder de cómputo y otros recursos de manera
transparente para proveer recursos de cómputo según sean necesarios. Es
probable que las instituciones financieras y los proveedores de servicios
médicos graviten hacia las nubes, ya que estas organizaciones manejan muchos
datos financieros y personales delicados. En el capítulo 8 analizaremos los
aspectos de seguridad de las nubes. Como las organizaciones que utilizan
computación en la nube por lo general no son propietarias de la
infraestructura, no tienen que realizar grandes inversiones en su propio
hardware y software. En cambio, compran sus servicios de cómputo a los
proveedores remotos y pagan sólo por la cantidad de poder de cómputo que
utilizan en realidad (computación utilitaria), o se les cobra una suscripción
mensual o anual.
COMPUTACIÓN VERDE
Al frenar la proliferación de
hardware y el consumo de energía, la virtualización se ha convertido en una de
las principales tecnologías para promover la computación verde. La computación
verde, o TI verde, se refiere a las prácticas y tecnologías para diseñar,
fabricar, usar y disponer de computadoras, servidores y dispositivos asociados,
como monitores, impresoras, dispositivos de almacenamiento, sistemas de redes y
comunicaciones para minimizar el impacto sobre el entorno. Reducir el consumo
de poder de cómputo ha sido una prioridad “verde” muy alta.
COMPUTACIÓN AUTONÓMICA La computación autonómica es un esfuerzo a
nivel industrial por desarrollar sistemas que se puedan configurar, optimizar,
ajustar, arreglarse por sí solos cuando se descompongan y protegerse de los
intrusos externos y de la autodestrucción. PROCESADORES
DE ALTO RENDIMIENTO Y AHORRO DE ENERGÍA esta es otra forma de reducir los
requerimientos de energía y la expansión descontrolada del hardware, por medio del
uso de procesadores más eficientes y ahorradores de energía. Esta tecnología
permite que dos o más motores de procesamiento con requerimientos de energía y
disipación de calor reducidos realicen tareas con más rapidez que un chip que
requiere de muchos recursos y que sólo contiene un núcleo de procesamiento.
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE CONTEMPORÁNEAS
En cuanto a este gran tema
existen cuatro subtemas importantes en la evolución de las plataformas de
software contemporáneas que son: Linux y
el software de código fuente abierto: El software de código abierto es
software producido por una comunidad de varios cientos de miles de
programadores en todo el mundo, es gratis y los usuarios pueden modificarlo.
Las obras derivadas del trabajo original también deben ser gratuitas, además de
que el usuario puede redistribuir el software sin necesidad de licencias
adicionales, el software de código abierto no está restringido a ningún sistema
operativo o tecnología de hardware específico, aunque actualmente la mayor parte del software de código abierto
se basa en un sistema operativo Linux o Unix. Java y Ajax: Java es un lenguaje de programación orientado a
objetos independiente del sistema operativo e independiente del procesador, que
se ha convertido en el principal entorno interactivo para Web, la plataforma de
Java ha migrado a los teléfonos celulares, teléfonos inteligentes, automóviles,
reproductores de música, máquinas de juegos y por último, a los decodificadores
en los sistemas de televisión por cable para ofrecer contenido interactivo y
servicios de pago por evento. El software de Java está diseñado para ejecutarse
en cualquier computadora o dispositivo de cómputo, sin importar el microprocesador
o sistema operativo específico que utilice el dispositivo. A nivel empresarial,
Java se utiliza para aplicaciones de comercio electrónico y negocios
electrónicos más complejos que requieren comunicación con los sistemas de
procesamiento de transacciones del back-end de una organización. Ajax permite
que un cliente y un servidor intercambien pequeñas piezas de datos tras
bambalinas, de modo que no haya que volver a cargar toda una página Web cada
vez que el usuario solicite una modificación. Ajax usa programas de JavaScript
que se descargan en su equipo cliente para mantener una conversación casi
continua con el servidor que utiliza, con lo cual la experiencia del usuario es
más fluida y uniforme.
Los
servicios web y la arquitectura orientada a servicios Los servicios Web se
refieren a un conjunto de componentes de software con acoplamiento débil, que
intercambian información entre sí mediante el uso de estándares y lenguajes de
comunicación Web universales. Pueden intercambiar información entre dos
sistemas distintos, sin importar los sistemas operativos o lenguajes de
programación en los que se basen esos sistemas. Se pueden utilizar para crear
aplicaciones basadas en Web con estándares abiertos que vinculen sistemas de
dos organizaciones distintas, y también se pueden usar para crear aplicaciones
que vinculen sistemas dispares dentro de una sola compañía.
INVERSIONES DE INFRAESTRUCTURA
INTELIGENTES
La infraestructura de TI es una importante
inversión para la empresa. Si se invierte demasiado en infraestructura, no se
aprovecha y constituye un rezago en el desempeño financiero de la empresa. Si
se invierte poco, no se podrán ofrecer los servicios de negocios importantes y
los competidores de la empresa (que invirtieron la cantidad correcta) superaran
a la empresa con la inversión insuficiente. Una empresa debe decidir si debe comprar y mantener sus propios
componentes de infraestructura de TI, o si es mejor que los rente de
proveedores externos, entre ellos los que ofrecen servicios en la nube. A la
decisión entre comprar sus propios activos de Ti o rentarlos a proveedores
externos se le conoce por lo general como la decisión entre rentar y comprar.
Tal vez la computación en la nube sea una manera de bajo costo para aumentar la
escalabilidad y flexibilidad, pero las empresas deberían evaluar esta opción
con cuidado en vista de los requerimientos de seguridad, además del impacto
sobre los procesos de negocios y los flujos de trabajo. En ciertos casos, el
costo de rentar software resulta ser mayor que el de comprar y mantener una
aplicación en forma interna. El costo actual de poseer recursos de tecnología
incluye el costo original de adquirir e instalar el hardware y software, así
como los costos administrativos continuos para las actualizaciones de hardware
y software, mantenimiento, soporte técnico, capacitación e incluso los costos
de servicios públicos y bienes raíces para operar y alojar la tecnología.
Podemos usar el modelo de Costo Total de Propiedad (TCO) para analizar estos
costos directos e indirectos, para ayudar a las empresas a determinar el costo
actual de las implementaciones de tecnología específicas.
Aquí una presentación en calameo, con el fin de repasar los temas mas relevantes de este capitulo: