viernes, 26 de febrero de 2016

RESUMEN DEL CAPITULO 7: TELECOMUNICACIONES, INTERNET Y TECNOLOGIA INALAMBRICA


TELECOMUNICACIONES, INTERNET Y TECNOLOGIA INALAMBRICA

LAS TELECOMUNICACIONES Y REDES EN EL MUNDO DE NEGOCIOS ACTUAL
TENDENCIAS DE REDES Y COMUNICACIÓN

Las redes telefónicas y las redes de computadora eran las distintas redes que se utilizaban en el pasado, las telefónicas manejaban la comunicación por voz y las de computadora se encargaban del tráfico de datos. Las compañías telefónicas crearon las redes telefónicas por medio del uso de tecnologías de transmisión de voz y operaban como monopolios, mientras que las compañías de computadoras crearon las redes computacionales para transmitir datos entre ordenadores en diferentes ubicaciones. Debido a que se ha dado una fuerte innovación en la tecnología y se han desregulado las telecomunicaciones las redes telefónicas y computacionales se están convirtiendo en una sola red digital por medio de estándares basados en internet y equipo compartidos. Todas estas comunicaciones de voz, video y datos se basan cada vez más en la tecnología de Internet.

¿QUÉ ES UNA RED DE COMPUTADORAS?

Una red consiste de dos o más computadoras conectadas entre sí. Cada computadora en la red contiene un dispositivo de interfaz de red llamado tarjeta de interfaz de red (NIC). Actualmente la mayor parte de computadoras personales tienen integrada esta tarjeta en la tarjeta madre. Para vincular componentes de red el medio de conexión puede ser un cable telefónico, uno coaxial o una señal de radio, en el caso de las redes de teléfonos celulares y de área local inalámbricas (redes Wi-Fi). El sistema operativo de red (NOS) lo que hace es que  enruta y administra las comunicaciones en la red y además  coordina los recursos de ésta, puede residir en cualquier computadora en la red, o principalmente en una computadora servidor dedicada para todas las aplicaciones en la red, cabe destacar que una computadora servidor es una computadora en una red que realiza importantes funciones de red para computadoras cliente, como servir páginas Web, almacenar datos y almacenar el sistema operativo de red. La mayoría de las redes también contienen un switch o un hub que actúa como un punto de conexión entre las computadoras. En el caso de los hubs son dispositivos muy simples que conectan componentes de red, para esto envían un paquete de datos a todos los demás dispositivos conectados. Pero un switch tiene mayor funcionalidad que un hub ya que puede tanto filtrar como reenviar datos a un destino especificado en la red. Para comunicarse con otra red como internet se necesita un enrutador  que es  un procesador de comunicaciones que se utiliza para enrutar paquetes de datos a través de distintas redes y asegurar que los datos enviados lleguen a la dirección correcta.
Redes en compañías grandes
En el caso de las grandes compañías con muchas ubicaciones distintas y miles de empleados, se crean cientos de pequeñas redes de área local, que se pueden enlazar en una infraestructura de red a nivel corporativo. Cuando se menciona infraestructura de redes para una gran corporación se refiere a una gran cantidad de estas pequeñas redes de área local vinculadas con otras redes de área local y con redes corporativas en toda la empresa. Varios servidores poderosos soportan un sitio Web corporativo, una intranet corporativa y tal vez una extranet. Actualmente muchas empresas se están deshaciendo de sus redes telefónicas tradicionales y utilizan teléfonos de Internet que operan en sus redes de datos existentes. Sin embargo uno de los principales problemas a los que se enfrentan las corporaciones en la actualidad es la manera de integrar todas las distintas redes de comunicaciones y canales en un sistema coherente que permita que la información fluya de una parte de la corporación a otra, y de un sistema a otro.
TECNOLOGÍAS DE REDES DIGITALES CLAVE

Las tres tecnologías en las que se basan las redes digitales contemporáneas son: computación cliente/servidor, el uso de la conmutación de paquetes y el desarrollo de estándares de comunicación con amplio uso para vincular redes y computadoras dispares.
Computación cliente/servidor  Este es un modelo de computación distribuida en el que parte del poder de procesamiento se encuentra dentro de pequeñas computadoras cliente económicas, y que reside literalmente en equipos de escritorio, laptops o en dispositivos portátiles. Estos poderosos clientes están vinculados entre sí mediante una red controlada por una computadora servidor de red. El servidor establece las reglas de comunicación para la red y provee a cada cliente una dirección, de modo que otros equipos puedan encontrarlos en la red. La computación cliente/servidor ha extendido la computación a partes de las empresas a las que no se podía dar servicio mediante una arquitectura centralizada. Internet es la implementación más grande de la computación cliente/ servidor.
Conmutación de paquetes, es un método para dividir mensajes digitales en parcelas llamadas paquetes, y éstos se envían por distintas rutas de comunicación a medida que se vuelven disponibles, para después re ensamblarlos una vez que llegan a sus destinos. Antes  de esto, se rentaban circuitos telefónicos dedicados para comunicarse con otras computadoras en ubicaciones remotas en este caso se ensambla un circuito completo punto a punto y después se puede iniciar la comunicación. El problema que se daba es que estas técnicas dedicadas de conmutación de paquetes eran costosas y desperdiciaban la capacidad de comunicaciones disponible ya que el circuito se mantenía sin importar que se enviaran o no datos. En cambio en las redes de conmutación de paquetes, los mensajes primero se descomponen en pequeños grupos fijos de datos conocidos como paquetes, los cuales contienen información para dirigir el paquete a la dirección correcta y verificar los errores de transmisión junto con los datos, cabe destacar que los paquetes se transmiten a través de varios canales de comunicación mediante enrutadores y cada paquete viaja de manera independiente.
TCP/IP y conectividad Los distintos componentes en una red sólo se pueden comunicar si se adhieren a un conjunto común de reglas denominadas protocolos, que es un conjunto de reglas y procedimientos que gobiernan la transmisión de información entre dos puntos en una red. En la actualidad, las redes corporativas utilizan cada vez más un único estándar común a nivel mundial, conocido como Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP). TCP se refiere al Protocolo de Control de Transmisión (TCP), este es el que se encarga del movimiento de datos entre computadoras, establece una conexión entre las computadoras, secuencia la transferencia de paquetes y confirma la recepción de los paquetes enviados. Por otro lado,  IP se refiere al Protocolo de Internet (IP), este es responsable de la entrega de paquetes y comprende los procesos de desensamblar y re ensamblar los paquetes durante la transmisión.
Un aspecto importante es que dos computadoras que utilizan TCP/IP se pueden comunicar aunque estén basadas en distintas plataformas de hardware y software. El proceso es el siguiente: Los datos que se envían de una computadora a la otra descienden por todas las cuatro capas, por la capa de aplicación de la computadora emisora y pasando por la capa de Interfaz de red,  los datos llegan a la computadora huésped receptora, suben por las capas y se vuelven a ensamblar en un formato que la computadora receptora pueda utilizar. En caso de que la computadora receptora encuentra un paquete dañado, pide a la computadora emisora que lo retransmita. Este proceso se invierte cuando la computadora receptora responde.

REDES DE COMUNICACIONES
COMPARACIÓN ENTRE SEÑALES DIGITALES Y ANALÓGICAS

Una señal analógica se representa mediante una forma de onda continua que pasa por un medio o canal de comunicación y se ha utilizado para la comunicación por voz.  Para aclarar más el concepto, los dispositivos analógicos más comunes son el auricular telefónico, el altavoz en la computadora o los audífonos del iPod, cada uno de los cuales crea formas analógicas que el oído pueda escuchar.. Las señales digitales comunican la información como cadenas de dos estados discretos: bits cero y bits uno, que se representan como pulsos eléctricos de encendido apagado. Las computadoras usan señales digitales y requieren un módem para convertirlas en señales analógicas que se puedan enviar o recibir  por medio de líneas telefónicas, líneas de cable o medios inalámbricos que utilicen señales analógicas.  Algo que probablemente no conocíamos la mayoría, es que la palabra módem es abreviación de modulador-demodulador. Los módems de cable conectan su computadora a Internet mediante el uso de una red de cable. Los módems DSL conectan su computadora a Internet mediante el uso de una red de líneas de tierra de la compañía telefónica. Los módems inalámbricos realizan la misma función que los tradicionales; conectan su computadora a una red inalámbrica que podría ser una red telefónica celular o una red Wi-Fi.
TIPOS DE REDES
 Una manera de analizar las redes  es en términos de su alcance geográfico.
Redes de área local: (LAN) está diseñada para conectar computadoras personales y otros dispositivos digitales dentro de un radio de media milla o 500 metros. Las LAN también se utilizan para vincularse a redes de área amplia de larga y a otras redes alrededor del mundo por medio de Internet. El servidor determina quién obtiene acceso a cuáles recursos y en qué secuencia. El enrutador conecta la LAN con otras redes, que podrían ser Internet u otra red corporativa, de modo que la LAN pueda intercambiar información con las redes externas. Cada uno de los sistemas operativos de red soporta TCP/IP como su protocolo de redes predeterminado.
Ethernet es el estándar de LAN dominante a nivel de red física; especifica el medio físico para transportar las señales entre computadoras, las reglas de control del acceso y un conjunto estandarizado de bits que se utilizan para transportar datos a través del sistema. Como alternativa, las redes LAN pueden usar una arquitectura de igual a igual, esto se refiere a dar la misma forma a todos los procesadores y se utiliza en primera instancia en las redes pequeñas con 10 o menos usuarios. En una topología de estrella, todos los dispositivos en la red se conectan a un solo concentrador. En una topología de bus, una estación transmite señales que viajan en ambas direcciones a lo largo de un solo segmento de transmisión. Una topología de anillo conecta a los componentes de la red en un lazo cerrado. Los mensajes pasan de una computadora a otra sólo en una dirección a través del lazo, y sólo una estación puede transmitir a la vez. La WAN más universal y poderosa es Internet. Las computadoras se conectan a una WAN por medio de redes públicas, como el sistema telefónico o los sistemas de cable privados, o por medio de líneas o satélites que se rentan. Una red de área metropolitana (MAN) abarca un área metropolitana, por lo general una ciudad y sus principales suburbios. Su alcance geográfico está entre una WAN y una LAN.
MEDIOS DE TRANSMISIÓN FÍSICOS
Cable trenzado: Consiste en tiras de cable de cobre trenzadas en pares y es uno de los tipos más antiguos de medio de transmisión. El cableado de par trenzado se limita a un tendido máximo recomendado de 100 metros (328 pies).
Cable coaxial: Es similar al que se utiliza para la televisión por cable, consiste en cable de cobre con aislamiento grueso, el cual puede transmitir un mayor volumen de datos que el cable trenzado.
Fibra óptica y redes ópticas: El cable de fibra óptica consiste en tiras unidas de fibra de vidrio transparente, cada una del grosor de un cabello humano. Los datos se transforman en pulsos de luz, los cuales se envían a través del cable de fibra óptica mediante un dispositivo láser a velocidades que varían desde 500 kilobits hasta varios billones de bits por segundo en entornos experimentales, es más costoso que otros medios físicos de transmisión y más difícil de instalar.

Medios de transmisión inalámbricos

 La transmisión inalámbrica se basa en las señales de radio de varias frecuencias. Hay tres tipos de redes inalámbricas que utilizan las computadoras: de microondas, celular y Wi-Fi. Los sistemas de microondas, tanto terrestres como celestiales, transmiten señales de radio de alta frecuencia a través de la atmósfera y se utilizan mucho para la comunicación punto a punto de alto volumen y larga distancia, siguen una línea recta y no se doblan con la curvatura de la tierra. También se pueden realizar transmisiones de larga distancia al usar los satélites de comunicación como estaciones repetidoras para las señales de microondas que se transmiten desde estaciones terrestres. Los satélites de comunicación utilizan la transmisión por microondas; por lo general para transmitir en organizaciones extensas, dispersas en varias ubicaciones geográficas que sería difícil conectar en red mediante el uso de medios de cables o microondas terrestres, así como para el servicio de Internet en el hogar, en especial en las áreas rurales.
Los sistemas celulares también utilizan ondas de radio y una variedad de protocolos distintos para comunicarse con antenas de radio (torres) colocadas dentro de áreas geográficas adyacentes, conocidas como celdas
INTERNET GLOBAL
Internet es la implementación más grande en el mundo de la computación cliente/servidor y de las interredes, ya que vincula a millones de redes individuales en todo el mundo. Esta red de redes global empezó a principios de la década de 1970 como una red del Departamento de Defensa de Estados Unidos para enlazar a científicos y profesores universitarios de todo el mundo. Un proveedor de servicios de Internet (ISP) es una organización comercial con una conexión permanente a Internet que vende conexiones temporales a suscriptores minoristas. La línea de suscriptor digital (DSL), el cable, las conexiones a Internet vía satélite y las líneas T proveen estos servicios de banda ancha. Las tecnologías de línea de suscriptor digital (DSL) operan a través de las líneas telefónicas existentes para transportar voz, datos y video a tasas de transmisión que varían desde 385 Kbps hasta llegar a 9 Mbps. Las conexiones de Internet por cable que ofrecen los distribuidores de televisión por cable utilizan líneas coaxiales de cable digital para ofrecer acceso a Internet de alta velocidad a los hogares y negocios. Pueden proveer acceso de alta velocidad a Internet de hasta 15 Mbps. En áreas en donde los servicios de DSL y de cable no están disponibles, es posible acceder a Internet vía satélite, aunque algunas conexiones tienen velocidades de envío más lentas que en otros servicios de banda ancha. T1 y T3 son estándares telefónicos internacionales para la comunicación digital. Son líneas dedicadas rentadas, adecuadas para las empresas o agencias gubernamentales que requieren niveles de servicio garantizados de alta velocidad.
DIRECCIONAMIENTO Y ARQUITECTURA DE INTERNET
Para que una computadora tenga acceso a Internet, los usuarios sólo necesitan especificar su nombre de dominio. DNS tiene una estructura jerárquica. En la parte superior de la jerarquía DNS se encuentra el dominio raíz. El dominio hijo de la raíz se denomina dominio de nivel superior y el dominio hijo de un dominio de nivel superior se denomina dominio de segundo nivel. Los dominios de nivel superior son nombres de dos o tres caracteres con los que de seguro usted está familiarizado por navegar en Web; por ejemplo, .com, .edu, .gov y los diversos códigos de países como .ca para Canadá o .it para Italia. Los dominios de segundo nivel tienen dos partes, las cuales designan un nombre de nivel superior y uno de segundo nivel —como buy.com, nyu.edu o amazon. ca. Un nombre de host en la parte inferior de la jerarquía designa una computadora específica, ya sea en Internet o en una red privada.
Arquitectura y gobernanza de Internet El tráfico de datos en Internet se transporta a través de redes troncales de alta velocidad transcontinentales, que por lo general operan en el rango de 45 Mbps a 2.5 Gbps en la actualidad casi todas estas líneas troncales pertenecen a las compañías telefónicas de larga distancia o a los gobiernos nacionales. Cada organización paga sus propias redes y servicios locales de conexión a Internet, de lo cual una parte se paga a los propietarios de las líneas troncales de larga distancia. Los usuarios individuales de Internet pagan a los ISP por usar su servicio; por lo general se trata de una cuota de suscripción fija, sin importar qué tanto o qué tan poco utilicen Internet. Las políticas de Internet a nivel mundial se establecen a través de varias organizaciones profesionales y organismos gubernamentales, como lo son; el Consejo de Arquitectura de Internet (IAB), que ayuda a definir la estructura general de Internet; la Corporación de Internet para la Asignación de Nombres y Números (ICANN), que asigna direcciones IP, y el Consorcio World Wide Web (W3C), encargado de establecer el lenguaje de marcado de hipertexto y otros estándares de programación para Web.
 Internet en el futuro: IPv6 e Internet2 Se está desarrollando una nueva versión del esquema de direccionamiento IP conocido como Protocolo de Internet versión 6 (IPv6), el cual contiene direcciones de 128 bits (2 a la potencia de 128), o más de mil billones de direcciones únicas posibles. Internet2 y próxima generación de Internet (NGI) son consorcios que representan a 200 universidades, empresas privadas y agencias gubernamentales en Estados Unidos, que trabajan en una nueva versión robusta de Internet con ancho de banda alto. Los grupos de investigación de Internet2 están desarrollando e implementando nuevas tecnologías para prácticas de enrutamiento más efectivas; distintos niveles de servicio, dependiendo del tipo y la importancia de los datos que se transmiten, y aplicaciones avanzadas para computación distribuida, laboratorios virtuales, bibliotecas digitales, aprendizaje distribuido y tele inmersión.
SERVICIOS DE INTERNET Y HERRAMIENTAS DE COMUNICACIÓN
En la actualidad las plataformas cliente cuentan no sólo equipos PC y otras computadoras, sino también con teléfonos celulares, pequeños dispositivos digitales de bolsillo y otros dispositivos de información.
 Servicios de Internet
Una computadora cliente que se conecta a Internet tiene acceso a una variedad de servicios, como el correo electrónico, los grupos electrónicos de discusión, las salas de chat y la mensajería instantánea, Telnet, el protocolo de transferencia de archivos (FTP) y Web, cada servicio de Internet se implementa mediante uno o más programas de software. Todos los servicios se pueden ejecutar en una sola computadora servidor, o se pueden asignar distintos servicios a distintas máquinas.
Redes privadas virtuales En caso de que una empresa tenga un grupo de marketing encargado de desarrollar nuevos productos y servicios para su firma con miembros esparcidos en todo el territorio de Estados Unidos por ejemplo sería conveniente que pudieran enviar y recibir correo electrónico entre sí y comunicarse con la oficina central sin ninguna probabilidad de que personas externas pudieran interceptar las comunicaciones, una solución económica es crear una red privada virtual dentro de la red Internet pública. Una red privada virtual (VPN) es una red privada segura y cifrada que se ha configurado dentro de una red pública para aprovechar la economía de escala y las facilidades administrativas de las grandes redes, como Internet. Se utilizan varios protocolos competidores para proteger los datos que se transmiten a través de la red Internet pública, como el Protocolo de Tunelización Punto a Punto (PPTP9, en el cual, los paquetes de datos se cifran y envuelven dentro de paquetes IP. Al agregar esta envoltura alrededor de un mensaje de red para ocultar su contenido, las firmas de negocios crean una conexión privada que viaja a través de la red Internet pública.
WEB
Es un sistema con estándares aceptados de manera universal para almacenar, recuperar, dar formato y mostrar información mediante el uso de una arquitectura cliente/servidor. Para dar formato a las páginas Web se utiliza el hipertexto con vínculos incrustados que conectan documentos entre sí, y que también vinculan páginas hacia otros objetos, como archivos de sonido, video o animación
 Hipertexto
 Las páginas Web se basan en un Lenguaje de Marcado de Hipertexto (HTML) estándar, el cual da formato a los documentos e incorpora vínculos dinámicos a otros documentos e imágenes almacenadas en la misma computadora o en equipos remotos. Se puede acceder a las páginas Web por medio de Internet debido a que el software de navegador Web que opera en su computadora puede solicitar las páginas almacenadas en un servidor host de Internet mediante el protocolo de transferencia de hipertexto (HTTP).
Servidores Web
Un servidor Web consiste en software para localizar y administrar páginas Web almacenadas. Localiza las páginas Web solicitadas por un usuario en la computadora en donde están almacenadas y las envía a la computadora del usuario. Por lo general, las aplicaciones de servidor se ejecutan en computadoras dedicadas, aunque en organizaciones pequeñas todas pueden residir en una sola computadora. El servidor Web más común que se utiliza en la actualidad es el servidor Apache HTTP, que controla el 54 por ciento del mercado.
Búsqueda de información en Web
Nadie sabe con certeza cuántas páginas Web hay en realidad. La Web superficial es la parte de Web que visitan los motores de búsqueda y sobre la cual se registra información. Los motores de búsqueda tratan de resolver el problema de encontrar información útil en Web casi al instante y, en definitiva, son la “aplicación asesina” de la era de Internet, la gran mayoría de los resultados de búsqueda se suministran a través de los tres principales proveedores: Google, Yahoo! y el motor de búsqueda Bing de Microsoft. En 1994, los estudiantes David Filo y Jerry Yang de ciencias computacionales de la Universidad de Stanford crearon una lista seleccionada a mano de sus páginas Web favoritas y la llamaro“Otro oficioso oráculo jerárquico (Yet Another Hierarchical Officious Oracle)”, o Yahoo!. En un principio no era un motor de búsqueda, sino más bien una selección editada de sitios Web organizados por n categorías que los editores encontraban de utilidad, pero a partir de entonces desarrolló sus propias capacidades de motor de búsqueda. En 1998, Larry Page y Sergey Brin, otros dos estudiantes de ciencias computacionales en Stanford, liberaron su primera versión de Google, el motor de búsqueda de Google consulta el servicio Web en forma continua, indexa el contenido de cada página, calcula su popularidad y almacena las páginas de modo que pueda responder con rapidez a las solicitudes de un usuario para ver una página. Todo el proceso tarda cerca de medio segundo. Los motores de búsqueda se han convertido en importantes herramientas de compras al ofrecer lo que se conoce ahora como marketing de motores de búsqueda.  La optimización de motores de búsqueda (SEO) es el proceso de mejorar la calidad y el volumen del tráfico Web hacia un sitio Web, para lo cual se emplea una serie de técnicas que ayudan a un sitio Web a obtener una mayor clasificación con los principales motores de búsqueda cuando se colocan ciertas palabras y frases clave en el campo de búsqueda. Existe lo que se llama también Bots de compras de agentes inteligentes. Los bots de compras usan software de agente inteligente para buscar en Internet la información sobre compras. Los bots de compras tales como MySimon o Google Product Search pueden ayudar a las personas interesadas en hacer una compra a filtrar y recuperar información sobre los productos de interés, evaluar los productos competidores de acuerdo con los criterios establecidos por los usuarios y negociar con los vendedores en cuanto al precio y los términos de entrega.
Web 2.0
Los sitios Web en la actualidad no sólo tienen contenido estático; también permiten a las personas colaborar y compartir información, además de crear nuevos servicios y contenido en línea. Estos servicios interactivos basados en Internet de segunda generación se conocen como Web 2.0 esta tiene cuatro características distintivas: interactividad, control del usuario en tiempo real, participación social (compartición) y contenido generado por el usuario. Las tecnologías y servicios detrás de estas características incluyen la computación en la nube, los mashups y widgets de software, blogs, RSS, wikis y redes sociales. Las herramientas y servicios Web 2.0 han impulsado la creación de redes sociales y otras comunidades en línea, en donde las personas pueden interactuar entre sí según lo deseen.
Web 3.0: el servicio Web del futuro
Web 1.0 resolvió el problema de obtener acceso a la información. Web 2.0 resolvió el problema de compartir esa información con otros, y de crear nuevas experiencias Web. Web 3.0 es la promesa de una Web futura en donde toda esta información digital y todos estos contactos se puedan entrelazar para formar una sola experiencia significativa. Algunas veces a ésta se le conoce como Web semántica. La mayoría del contenido de Web en la actualidad está diseñado para que los humanos lo lean y las computadoras lo desplieguen, no para que los programas de computadora lo analicen y manipulen. Los motores de búsqueda pueden descubrir cuándo aparece un término o palabra clave específico en un documento Web, pero en realidad no entienden su significado ni cómo se relaciona con el resto de la información en Web. Las opiniones en cuanto al futuro del servicio Web varían, pero en general se enfocan en las formas para aumentar la “inteligencia” Web, en donde la comprensión de la información facilitada por las máquinas promueve una experiencia más intuitiva y efectiva para el usuario. La labor de hacer del servicio Web una experiencia más inteligente avanza con lentitud, en gran parte debido a que es difícil hacer que las máquinas, o hasta los programas de software, sean tan inteligentes como los humanos. Algunos ven una Web en 3-D, en donde se puedan recorrer las páginas en un entorno tridimensional. Otros señalan la idea de un servicio Web dominante que controle todo desde las luces en su sala de estar hasta el espejo retrovisor de su auto, sin mencionar que administre su calendario y sus citas.
LA REVOLUCIÓN INALÁMBRICA
. Los teléfonos celulares, las computadoras laptop y los pequeños dispositivos de bolsillo se han transformado en plataformas de cómputo portátiles que le permiten realizar algunas de las tareas de computación que solía realizar en su escritorio. La comunicación inalámbrica ayuda a las empresas a permanecer con más facilidad en contacto con los clientes, proveedores y empleados, además de que provee arreglos más flexibles para organizar el trabajo.
SISTEMAS CELULARES
Hay sistemas de telefonía celular GSM en Estados Unidos, entre los que están T-Mobile y AT&T Wireless. El principal estándar en Estados Unidos es el acceso múltiple por división de código (CDMA), sistema que utilizan Verizon y Sprint. Se transmite a través de varias frecuencias, ocupa el espectro completo y asigna de manera aleatoria usuarios a un rango de frecuencias a través del tiempo. Las primeras generaciones de los sistemas celulares se diseñaron en primera instancia para la transmisión de voz y de datos limitados en forma de mensajes cortos. Ahora las compañías de comunicaciones inalámbricas ofrecen redes celulares más poderosas conocidas como redes de tercera generación o redes 3G, con velocidades de transmisión que varían desde los 144 Kbps para los usuarios móviles, por ejemplo en un auto, hasta 2 Mbps para los usuarios fijos.
REDES INALÁMBRICAS DE COMPUTADORAS Y ACCESO A INTERNET
Estos nuevos servicios de alta velocidad tienen acceso extendido a Internet en muchas ubicaciones que no se podrían cubrir mediante los servicios tradicionales fijos de Internet.
Bluetooth
 Bluetooth es el nombre popular para el estándar de redes inalámbricas 802.15, que es útil para crear pequeñas redes de área personal (PAN). Vincula hasta ocho dispositivos dentro de un área de 10 metros mediante el uso de comunicación basada en radio de baja energía, y puede transmitir hasta 722 Kbps en la banda de 2.4 GHz.
Wi-Fi y acceso inalámbrico a Internet
Las computadoras PC y netbook de la actualidad tienen soporte integrado para Wi-Fi, al igual que los dispositivos iPhone, iPad y otros teléfonos inteligentes. En casi todas las comunicaciones Wi-Fi, los dispositivos inalámbricos se comunican con una LAN fija mediante el uso de puntos de acceso. Un punto de acceso es una caja que consiste en un receptor/transmisor de radio y antenas con vínculos a una red fija, un enrutador o un concentrador (hub).
WiMax
. WiMax, que significa interoperabilidad mundial para acceso por microondas, es el término popular para el estándar 802.16 del IEEE. Tiene un rango de acceso inalámbrico de hasta 31 millas y una velocidad de transmisión de hasta 75 Mbps. Las antenas WiMax son lo bastante poderosas como para transmitir conexiones a Internet de alta velocidad a las antenas en los techos de los hogares y las empresas a millas de distancia. Los teléfonos celulares y las computadoras laptop con capacidad para WiMax están empezando a aparecer en el mercado. WiMax móvil es una de las tecnologías de red previas a 4G.
REDES DE SENSORES INALÁMBRICAS Y RFID

 Los sistemas de identificación por radio frecuencia (RFID) ofrecen una tecnología poderosa para rastrear el movimiento de productos a través de la cadena de suministro. Los sistemas RFID usan diminutas etiquetas con microchips incrustados que contienen datos sobre un artículo y su ubicación para transmitir señales de radio a través de una distancia corta, a los lectores RFID. Después, los lectores RFID pasan los datos a través de una red a una computadora para su procesamiento. La etiqueta RFID se programa de manera electrónica con información que pueda identificar a un artículo en forma única, además de información adicional sobre el artículo, como su ubicación, en dónde y cuándo se fabricó, o su estado durante la producción, tiene además  incrustado un microchip para almacenar los datos. El resto de la etiqueta es una antena que transmite datos al lector.  

A continuación les dejo un video hecho por mi, acerca de este capitulo, espero les ayude bastante!



sábado, 13 de febrero de 2016

CASO: Los problemas de la base de datos de vigilancia de terroristas continúan

¿Qué conceptos en este capítulo se ilustran en este caso?
Los conceptos que se desarrollan y son parte de este capítulo son:
Almacén de datos: Es una base de datos que almacena información actual e histórica de interés potencial para los encargados de tomar decisiones en la compañía. Este concepto se aplica a este caso debido a que se almacena  información en los sistemas de agencias gubernamentales de Estados Unidos para usarse en los esfuerzos por impedir o detectar los movimientos de los terroristas conocidos o presuntos.
Mercado de datos: Un subconjunto de almacén de datos, en el cual se coloca una porción de alto grado de enfoque en los datos de la organización en una base de datos separada para una población específica. Este concepto también se aplica en este caso debido a que no es a toda la población que se incluye en esas listas si no a aquellas cuyas características son de interés para la investigación de la lucha contra el terrorismo. Una vez que los datos en línea se capturan y organizan en almacenes y mercados de datos están disponibles para su posterior análisis, mediante el uso de herramientas para inteligencia
Política de información: Es la que especifica las reglas de la organización para compartir, diseminar, adquirir responsabilizar, clasificar e inventariar la información. Este concepto se ve reflejado en el caso en que como el mismo dice los registros en la base de datos TSC contienen información confidencial pero no clasificada sobre las identidades de los terroristas, como el nombre y la fecha de nacimiento, que se pueden compartir con otras agencias de detección.
 Administración de datos: Es responsable de las políticas y procedimientos específicos, a través de los cuales se pueden administrar los datos como un recurso organizacional.  No se administran los datos de manera adecuada.
Gobernanza de datos: Se encarga de  las políticas y procedimientos para administrar la disponibilidad, utilidad, integridad y seguridad de los datos empleados en una empresa.  No existe la integridad y la completa seguridad de los datos, esto lo demuestra el caso al existir tantas inconsistencias y errores.
Aseguramiento de la calidad de datos: Se debe procurar que sean precisos y permanezcan confiables.
Limpieza de datos: consiste en actividades para detectar y corregir datos en una base que sean incorrectos, incompletos que tengan un formato inapropiado o que sean redundantes. No se cuenta con una limpieza de datos eficiente ya que la misma base de datos no detecta los errores y los corrige si no que es hasta que se investiga a la persona y esta misma le indica a los funcionarios mediante sus datos más específicos que no es la persona por la cual lo están confundiendo.

¿Por qué se creó la lista de vigilancia de terroristas consolidada? ¿Cuáles son los beneficios de la lista?
 Se creó para consolidar la información sobre los terroristas sospechosos de varias agencias gubernamentales en una sola lista para mejorar la comunicación entre las agencias  se creó una base de datos de terroristas sospechosos conocida como la lista de vigilancia de terroristas. Varias agencias gubernamentales de Estados Unidos habían estado manteniendo listas separadas y carecían de un proceso consistente para compartir información relevante.
Beneficios
1)      Mayor comunicación a nivel interno de las agencias gubernamentales. Ya que se puede llevar a cabo un control más específico de las personas que desean ingresar al país.
2)       Se puede usar en los esfuerzos por impedir o detectar los movimientos de los terroristas conocidos o presuntos.

Describa algunas de las debilidades de la lista de vigilancia. ¿Qué factores de administración, organización y tecnología son responsables de estas debilidades?
·         Los informes de la oficina de auditoría general y la oficina del inspector general aseguran que la lista contiene imprecisiones y que las políticas departamentales del gobierno para nominar y quitar personas de la lista no son uniformes.
·        También se ha generado una protesta pública debido al tamaño de la lista y los incidentes tan publicitados de personas que sin duda no son terroristas y descubren que se encuentran en la lista.
·        Se requiere una información más detallada a la hora de introducir personas a lista.
·        No hay un proceso simple y rápido de rectificación para los inocentes que esperan salir de la lista.
·        Muchas aerolíneas no incluyen género, segundo nombre o fecha de nacimiento en sus registros de reservaciones, lo cual incrementa la probabilidad de falsas coincidencias

FACTORES DE ADMINISTRACION:
La administración es la encargada generalmente de tomar las decisiones, en este caso le recae responsabilidad ya que no implementa un proceso responsable al momento de seleccionar a la persona que se va a incluir en esa lista.

FACTORES DE ORGANIZACIÓN
A pesar de que se han realizado mejoras, se deberían de repartir de mejor manera las funciones, dar más capacitación ya que se ha demostrado que con la que se ha dado no es suficiente para poder agilizar los procesos en los casos en los que se presenta un fallo, utilizar mejores recursos que faciliten los procesos.

FACTORES DE TECNOLOGIA
En cuanto a los factores de tecnología, Estados Unidos cuenta con una tecnología muy eficiente para llevar a cabo estos procesos, sin embargo no se están llevando a cabo una buena administración de datos  una adecuada política de información. O una adecuada gobernanza de datos.

¿Qué tan efectivo es el sistema de las listas de vigilancia descrito en este caso de estudio? Explique su respuesta.
Por supuesto que es efectivo ya que como se ha mencionado anteriormente permite rastrear tantos terroristas potenciales como sea posible y eso evidentemente es bueno y le da más seguridad a la población de Estados Unidos sin embargo, su efectividad no es tan grande debido a que también provocan muchas más  entradas erróneas en la lista de las que se generarían si el proceso requiriera información mucho más detallada para agregar nuevas entradas y estos incidentes cuestionan la calidad y la precisión de los datos en la lista de vigilancia de terroristas consolidada del TSC.

Si fuera responsable de la administración de la base de datos de la lista de vigilancia del TSC, ¿qué acciones tomaría para corregir algunas de estas debilidades?
Bueno en el caso se menciona que actualmente no hay un proceso simple y rápido en la rectificación de inocentes que esperan ser removidos de la lista, por lo tanto en primera instancia con la facilidad del almacén de datos, el mercado de datos, las políticas de información o gobernanza de información no deberían de darse tantas falsas alarmas, es decir debería de realizarse una investigación y captación de datos más a fondo de las personas que pueden ser posibles candidatos a terroristas pero de las cuales no hay seguridad, antes de incluirlas en las listas, para que no hayan tantos inocentes en esas listas. Y en caso de que se incluyan entonces pedir ayuda de técnicos en sistemas de información muy capacitados que puedan realizar un software o un programa que facilite el proceso de la salida de estas personas de esa lista.
 ¿Cree usted que la lista de vigilancia de terroristas representa una amenaza considerable para la privacidad o los derechos constitucionales de los individuos? ¿Por qué sí o por qué no?
Considero que no del todo ya que no se necesitan datos demasiado personales para detectar esto a menos de que sea una persona que tenga muchas coincidencias además, es casi inevitable que no se tenga que llevar a cabo un proceso de investigación a fondo de las personas para así poder identificar si son potenciales terroristas o simples coincidencias, entonces considero que si las personas no quieren verse sometidas a la tediosa situación de estar incluida en la lista entonces deberá someterse a que sus características o datos personales se vean expuestos, ya que se trata de la seguridad del país y de no pasar por el proceso largo de la salida de la lista.

Estudiantes: 
Christopher Arias 
Fiorella de Jesús Chaverri Salas 

viernes, 12 de febrero de 2016

Resumen del capitulo 6: Fundamentos de inteligencia de negocios: bases de datos y administración de la información


Organización de los datos en un entorno de archivos tradicional

La administración de datos es de gran relevancia  ya que si una empresa no tiene la información necesaria, precisa o la más importante, puede ser porque los datos en sus sistemas de información se han organizado de mal manera y no se han sabido mantener de manera apropiada. Esto se comprende de mejor forma analizando cómo es que los sistemas de información organizan los datos en archivos de computadora, junto con los métodos tradicionales de administración de archivos.

 TÉRMINOS Y CONCEPTOS DE ORGANIZACIÓN DE ARCHIVOS

Precisamente al observar este tema no es fácil  a simple vista el concepto de archivos tradicionales y organización de archivos a nivel de sistemas de información  sin embargo este libro lo explica muy bien refiriéndose a que un sistema computacional organiza los datos en una jerarquía que empieza con bits y bytes, y progresa hasta llegar a los campos, registros, archivos y bases de datos. Un bit representa la unidad más pequeña de datos que una computadora pue de manejar. Un grupo de bits, denominado byte, representa a un solo carácter, que puede ser una letra, un número u otro símbolo. Pero también esta lo que se denomina campo que es un agrupamiento de caracteres en una palabra, un conjunto de palabras o un número completo (como el nombre o la edad de una persona) y un grupo de campos relacionados, como el nombre del estudiante, el curso que va a tomar, la fecha y la calificación, representan un registro y un grupo de registros del mismo tipo se denomina archivo y un grupo de archivos relacionados constituye una base de datos. Se podría agrupar con los archivos en los historiales personales de los estudiantes y sus antecedentes financieros, esto con el fin de crear una base de datos de estudiantes. Pero la cadena continua ya que un registro describe a una entidad y una entidad es una persona, lugar, cosa o evento sobre el cual se almacena y se mantiene  información, además de que  cada cualidad que describe a una entidad específica se denomina atributo.

PROBLEMAS CON EL ENTORNO DE ARCHIVOS TRADICIONAL

Contabilidad, finanzas, manufactura, recursos humanos, ventas y marketing han desarrollado sus propios sistemas y archivos de datos. Desde luego que cada aplicación requería sus propios archivos y programa para operar. Generalmente, este proceso conduce a varios archivos maestros creados, mantenidos y operados por divisiones o departamentos separados. Los problemas que resultan de esto son la redundancia e inconsistencia de los datos, la dependencia programa-datos, la inflexibilidad, la seguridad defectuosa de los datos y la incapacidad de compartir datos entre aplicaciones. Al describir el primer problema redundancia e inconsistencia de los datos que se refiere a la presencia de datos duplicados en varios archivos, así que se almacenan los mismos datos en más de un lugar o ubicación. La redundancia ocurre cuando distintos grupos en una organización recolectan por separado la misma pieza de datos y la almacenan de manera independiente unos de otros. La confusión resultante dificultaría a las compañías el proceso de crear sistemas de administración de relaciones con el cliente, de administración de la cadena de suministro o sistemas empresariales que integren datos provenientes de distintas fuentes. En cuanto al problema de la dependencia programa-datos es referido al acoplamiento de los datos almacenados en archivos y los programas específicos requeridos para actualizar y dar mantenimiento a esos archivos, de manera que los cambios en los programas requieran cambios en los datos. Todo programa de computadora tradicional tiene que describir la ubicación y naturaleza de los datos con los que trabaja. Aquí se aclara el concepto de archivos tradicional ya que en este entorno, cualquier cambio en un programa de software podría necesitar un cambio en los datos a los que tiene acceso ese programa. Tal vez un programa se modifique de un código postal de cinco dígitos a nueve. Si el archivo de datos original se cambiara para usar códigos postales de nueve dígitos en vez de cinco, entonces otros programas que requirieran el código postal de cinco dígitos ya no funcionarían en forma apropiada y el detalle importante y desventajoso es que la implementación apropiada de dichos cambios podría costar millones de dólares. El otro problema es la  falta de flexibilidad esto es que un sistema de archivos tradicional tiene la posibilidad de entregar informes programados de rutina luego de determinado esfuerzo extenso de programación, pero no tiene la flexibilidad de  entregar informes ad hoc ni responder de manera oportuna a los requerimientos de información no anticipados. La información que se necesita por las solicitudes ad hoc está en alguna parte del sistema, pero el problema es que puede ser  bastante costoso recuperarla. Puede darse el caso de que varios programadores tengan que trabajar durante semanas para reunir los elementos de datos requeridos en nuevo archivo. La seguridad defectuosa es otro problema ya que se lleva a cabo poco control o poca administración de los datos, el acceso a la información, así como su diseminación, pueden estar sin ningún o poco control. Probablemente la gerencia no tenga forma de saber quién está accediendo a los datos de la organización, o tenga acceso a modificarlos. Y continuando con los problemas la falta de compartición y disponibilidad de los datos es otro ya que como las piezas de información en los distintos archivos y las diferentes partes de la organización no tienen relación entre sí, es casi imposible compartir o acceder a la información de una manera adecuada. La información no se presta para que fluya libremente entre las diferentes áreas funcionales. Si los usuarios encuentran valores desiguales de la misma pieza de información en dos sistemas diferentes, tal vez no quieran usar estos sistemas debido a que no pueden confiar en la precisión de sus datos.

LA METODOLOGÍA DE LAS BASES DE DATOS PARA LA ADMINISTRACIÓN DE DATOS
 Una base de datos es una colección de datos organizados con el propósito de dar servicio a muchas aplicaciones de manera eficiente, al centralizar los datos y controlar los que son redundantes. El detalle se encuentra en que en vez de guardar los datos en archivos separados para cada aplicación, se almacenan de manera que los usuarios piensen que están en una sola ubicación. Una sola base de datos da servicio a varias aplicaciones.

SISTEMAS DE ADMINISTRACIÓN DE BASES DE DATOS

Para comenzar esclareciendo conceptos un Sistema de Administración de Bases de Datos (DBMS) es software que le da la posibilidad a una organización de  centralizar los datos, administrarlos eficientemente y proveer acceso a los datos almacenados mediante programas de aplicación. El DBMS actúa como una interfaz entre los programas de aplicación y los archivos de datos físicos. Cuando el programa de aplicación solicita un elemento de datos, como el sueldo bruto, el DBMS lo busca en la base de datos y lo presenta al programa de aplicación. En cambio si utilizara archivos de datos tradicionales, el programador tendría que especificar el tamaño y formato de cada elemento de datos utilizado en el programa y después decir a la computadora en dónde están ubicados. El DBMS le quita la carga al programador o al usuario final de comprender en dónde y cómo están almacenados los datos en realidad, al separar las vistas lógica y física de los datos. Aquí es importante detenerse a analizar que la vista lógica presenta los datos de acuerdo con la manera en que los observan los usuarios finales o los especialistas de negocios, y la vista física muestra la verdadera forma de organización y estructuración de datos en los medios de almacenamiento físicos. Un DBMS resuelve los problemas del entorno de archivos tradicionales  ya que disminuye la redundancia e inconsistencia de los datos al minimizar los archivos aislados en los que se repiten los mismos datos. Es probable que el DBMS no logre que la organización elimine la redundancia de datos del todo, pero puede ayudar a controlarla. El DBMS desacopla los programas y los datos, con lo cual estos últimos se pueden independizar por eso soluciona el problema de la dependencia de programa-datos. Se tendrá más acceso y  disponibilidad de la información, y también se disminuirán los costos de desarrollo y mantenimiento de los programas debido a que los usuarios y programadores pueden realizar consultas ad hoc de la información  en la base de datos. El DBMS además ataca otro problema el de la seguridad ya que permite a la organización administrar los datos, su uso y su seguridad en forma central.

DBMS relacional
 El DBMS relacional es el tipo más popular de sistemas DBMS en la actualidad para PCs y computadoras más grandes. Las bases de datos relacionales representan los datos como tablas bidimensionales a las cuales se les llama relaciones, a estas se les puede hacer referencia como si fueran archivos. Cada tabla contiene datos sobre una entidad y sus atributos. La manera en la que  organiza una base de datos relacional la información sobre proveedores y piezas es que a base de datos tiene una tabla separada para la entidad proveedor y una para la entidad pieza. Cada elemento individual de datos para cada entidad se almacena como un campo separado, y cada campo es un atributo para esa entidad. La información real sobre un solo proveedor que reside en una tabla se denomina fila. Los datos para la entidad pieza tienen su propia tabla separada. También existen las bases de datos orientadas a objetos que almacena los datos y los procedimientos que actúan sobre esos datos como objetos que se pueden recuperar y compartir de manera automática. Los Sistemas de Administración de Bases de Datos Orientados a Objetos (OODBMS) se pueden utilizar para manejar los diversos componentes multimedia o los applets de Java que se utilizan en las aplicaciones Web, que por lo general integran piezas de información provenientes de una variedad de orígenes, eso sí,  son lentos en comparación con los DBMS relacionales para procesar grandes números de transacciones. Pero una vez vistos los relacionales y los de objetos podemos ver que existen los sistemas DBMS objeto-relacional híbridos, que ofrecen las capacidades de los sistemas DBMS tanto orientados a objetos como relacionales.

CAPACIDADES DE LOS SISTEMAS DE ADMINISTRACIÓN DE BASES DE DATOS

Un DBMS tiene capacidades y herramientas para organizar, administrar y acceder a los datos en la base de datos, de estas las más importantes son: su lenguaje de definición de datos, el diccionario de datos y el lenguaje de manipulación de datos. Los DBMS tienen una capacidad de definición de datos para especificar la estructura del contenido de la base de datos esto es importante debido a que podría usarse para crear tablas de bases de datos y así definir las características de los campos en cada tabla. La otra capacidad es importante ya que esta información sobre la base de datos se puede documentar en un diccionario de datos, esto es un archivo automatizado o manual que almacena las definiciones de los elementos de datos y sus características. Los diccionarios de datos para las grandes bases de datos corporativas pueden capturar información adicional, como el uso, la propiedad (quién en la organización es responsable de dar mantenimiento a la información), autorización, seguridad y los individuos, funciones de negocios, programas e informes que utilizan cada elemento de datos. La mayoría de los DBMS tienen un lenguaje especializado conocido como lenguaje de manipulación de datos el cual se utiliza para agregar, modificar, eliminar y recuperar los datos en la base. Este lenguaje contiene comandos que permiten a los usuarios finales y a los especialistas de programación extraer los datos de la base para satisfacer las solicitudes de información y desarrollar aplicaciones.

DISEÑO DE BASES DE DATOS

Primeramente hay que tener claro que para diseñar una base de datos hay que entender las relaciones entre la información, el tipo de datos que se mantendrán en la base, cómo se utilizarán y la forma en que tendrá que cambiar la organización para administrarlos desde una perspectiva a nivel de toda la compañía. La base de datos requiere tanto un diseño conceptual como uno físico, el diseño conceptual  de la base de datos es un modelo abstracto de ésta desde una perspectiva de negocios, mientras que el diseño físico muestra la verdadera disposición de la base de datos en los dispositivos de almacenamiento de acceso directo.
Diagramas de normalización y de entidad-relación
 El diseño de bases de datos conceptual describe la forma en que se deben agrupar los elementos de datos en la base.  El proceso de diseño identifica las relaciones entre los elementos de datos y la manera más eficiente de agruparlos en conjunto para satisfacer los requerimientos de información de la empresa. Este proceso también identifica a los elementos de datos redundantes y las agrupaciones de elementos de datos requeridas para ciertos programas de aplicaciones específicos. Los grupos de datos se organizan, refinan y optimizan hasta que emerge una vista lógica general de las relaciones entre todos los datos en la base.

USO DE BASES DE DATOS PARA MEJORAR EL DESEMPEÑO DE NEGOCIOS Y LA TOMA DE DECISIONES

Pagar a los proveedores, procesar pedidos, llevar el registro de los clientes y pagar a los empleados, son algunas de las operaciones que puede realizar una empresa gracias a la utilización de sus bases de datos. Pero además su importancia se refleja en que se necesitan bases de datos para suministrar información que colabora a la compañía a operar sus negocios eficientemente, y ayudar a los gerentes y empleados a tomar mejores decisiones. Si una compañía desea saber cuál producto es el más popular o quién es su cliente más rentable, la respuesta radica en los datos.

ALMACENES DE DATOS

Un almacén de datos es una base de datos que almacena la información actual e histórica de gran interés para los encargados de tomar decisiones en la compañía. Los datos se originan en muchos sistemas de transacciones operacionales básicos, como los sistemas de ventas, las cuentas de clientes, la manufactura, y pueden incluir datos de transacciones de sitios Web. El almacén de datos consolida y estandariza la información de distintas bases de datos operacionales, de modo que se pueda utilizar en toda la empresa para el análisis gerencial y la toma de decisiones.

HERRAMIENTAS PARA LA INTELIGENCIA DE NEGOCIOS: ANÁLISIS DE DATOS MULTIDIMENSIONAL Y MINERÍA DE DATOS 

Las principales herramientas para la inteligencia de negocios incluyen el software para consultas e informes de bases de datos, herramientas para el análisis de datos multidimensional (procesamiento analítico en línea), y herramientas para la minería de datos.
Minería de datos: La minería de datos está más orientada al descubrimiento , al encontrar patrones y relaciones ocultas en las bases de datos grandes e inferir reglas a partir y reglas se utilizan para guiar la toma de decisiones y pronosticar el efecto de esas decisiones. Los tipos de información que se pueden obtener de la minería de datos son: asociaciones, secuencias, clasificaciones, agrupamientos y pronósticos.
 Minería de datos y minería Web: Existen herramientas que pueden extraer elementos clave de los conjuntos de datos extensos no estructurados, descubrir patrones y relaciones, así como sintetizar la información. Las empresas podrían recurrir a la minería de texto para analizar las transcripciones de los call centers de servicio al cliente para identificar las principales cuestiones de servicio y reparación. También existe lo llamado  minería de estructura Web que extrae información útil de los vínculos incrustados en documentos Web.

LAS BASES DE DATOS Y WEB

Actualmente son muchas las  compañías que utilizan Web para poner parte de la información en sus bases de datos internas a disposición de los clientes y los socios de negocios. Existen varias ventajas en cuanto al uso de Web para acceder a las bases de datos internas de una organización. La primera es que el software de navegador Web es mucho más fácil de usar que las herramientas de consulta propietarias, la segunda es que la interfaz Web requiere pocos o ningún cambio en la base de datos interna.
ADMINISTRACIÓN DE LOS RECURSOS DE DATOS

ESTABLECIMIENTO DE UNA POLÍTICA DE INFORMACIÓN


La política de información establece procedimientos y rendiciones de cuentas específicos, identifica qué usuarios y unidades organizacionales pueden compartir información, en dónde distribuirla y quién es responsable de actualizarla y mantenerla. Si se analiza en una empresa pequeña, los propietarios o gerentes son los que establecerían e implementarían la política de información, en cambio en una organización grande, administrar y planificar la información, requiere con frecuencia de una función de administración de datos formal. La administración de datos es responsable de las políticas y procedimientos específicos a través de los cuales se pueden administrar los datos como un recurso organizacional. Estas responsabilidades abarcan el desarrollo de la política de información, la planificación de los datos, la supervisión del diseño lógico de la base de datos, y el desarrollo del diccionario de datos, así como el proceso de monitorear la forma en que los especialistas de sistemas de información y los grupos de usuarios finales utilizan los datos. 


Aquí una explicacion mediante un video:


Resumen del capitulo 5:

INFRAESTRUCTURA DE TI
Para entender este apartado es necesario recordar que la infraestructura de tecnología de la información es el conjunto de recursos de tecnología compartidos que suministran la plataforma de TI para las aplicaciones de sistemas de información específicas para la empresa. Contar en una organización con esa infraestructura es importante porque proporciona la base para dar servicio a los clientes, trabajar con los distribuidores y gestionar los procesos de negocios internos y debido a que son tan importantes y valiosas en una organización es que son asimismo inversiones  costosas , las inversiones en infraestructura representan entre el 25 y 50 por ciento de los gastos en tecnología de la información en las empresas grandes, encabezadas por las de servicios financieros en las que la TI representa más de la mitad de toda la inversión de capital.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI
50 años de estar evolucionando las computadoras, para que las organización puedan aprovechar actualmente todas las funcionalidades de las mismas, esta evolución consta de 5 etapas que son: la computación con mainframes y minicomputadoras de propósito general, las microcomputadoras mejor conocidas como computadoras personales, las redes cliente/servidor, la computación empresarial y la computación en la nube y móvil. A continuación una breve descripción de lo más relevante de cada era:
Era de las mainframes y minicomputadoras de propósito general (1959 a la fecha): Al incorporarse las máquinas transistorizadas IBM 1401 y 7090 en 1959 se marcó el comienzo del uso comercial extendido de las computadoras mainframe. La computadora comercial con un poderoso sistema operativo que podía proporcionar tiempo compartido, multitareas y memoria virtual en modelos más avanzados, fue la primera computadora mainframe de la serie IBM 360. Fue un periodo de computación con mucha centralización bajo el control de programadores y operadores de sistemas profesionales, en donde la mayoría de los elementos de la infraestructura los proveía un solo distribuidor, el fabricante del hardware y del software, esto comenzó a cambiar con la llegada de las minicomputadoras producidas por Digital Equipment Corporation (DEC) en 1965. Las minicomputadoras DEC (PDP-11 y más adelante las máquinas VAX) su gran utilidad es que  prometían máquinas poderosas a precios mucho más reducidos  que las mainframes de IBM, lo que creo la computación descentralizada, personalizada de acuerdo  a las necesidades específicas de los departamentos individuales o las unidades de negocios ya se dejo de compartir el tiempo en una sola y enorme mainframe, cabe destacar que  la minicomputadora evolucionó en una computadora o servidor de medio rango y forma parte de una red. Por lo tanto se viene la Era de la computadora personal (1981 a la fecha) La computadora Wintel PC (sistema operativo Windows en una computadora con un microprocesador Intel, se convirtió en la computadora personal de escritorio estándar. Estas PCs eran sistemas independientes hasta que el software de sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes. Luego se introduce la Era cliente/servidor (1983 a la fecha) esto es que  las computadoras de escritorio o laptop conocidas como clientes se conectan en red a poderosas computadoras servidores que proveen a las computadoras clientes una variedad de servicios y herramientas, el cliente es el punto de entrada del usuario, mientras que el servidor por lo general procesa y almacena datos compartidos, sirve páginas Web o gestiona las actividades de la red, es importante reconocer determinados conceptos para entender esta materia como por ejemplo el término “servidor” que  se refiere tanto a la aplicación de software como a la computadora física en la que se ejecuta el software de red, el procesamiento se divide entre los dos tipos de máquinas a esto se le llama arquitectura cliente/servidor de dos niveles.         Pueden existir redes cliente/servidor desde las más simples hasta las más complejas dependiendo de la organización. Su importancia radica en que permite a las empresas distribuir el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que cuestan mucho menos que las minicomputadoras o los sistemas mainframe centralizados. Luego se incorpora la Era de la computación empresarial (1992 a la fecha) se dan sus inicios cuando a principios de la década de 1990, las empresas recurrieron a estándares de redes y herramientas de software que pudieran integrar redes y aplicaciones dispares esparcidas por toda la empresa en una infraestructura a nivel empresarial. La infraestructura de TI que resulta de esto es la que  enlaza distintas piezas de hardware de computadora y redes más pequeñas en una sola red a nivel empresarial, entonces la información pueda fluir con libertad por toda la organización, y también entre la empresa y otras organizaciones; cuenta con infraestructuras públicas como el sistema telefónico, Internet y los servicios de redes públicas, para todo esto se requiere la utilización de un software. Pero las eras no terminan porque la tecnología es lo que evoluciona más rápido y por lo tanto surge la  Era de la computación en la nube y móvil (2000 a la fecha) se da un avance en el modelo cliente/servidor hacia el Modelo de computación en la nube, gracias al poder cada vez mayor del ancho de banda de Internet. La computación en la nube es un modelo de cómputo que suministra acceso a una reserva compartida de recursos computacionales (computadoras, almacenamiento, aplicaciones y servicios) a través de una red, que por lo general es Internet, actualmente, la computación en la nube es la forma de computación con crecimiento más rápido. Las empresas de software como Google, Microsoft, SAP, Oracle y Salesforce. com venden aplicaciones de software como servicios que se ofrecen a través de Internet.
IMPULSORES TECNOLÓGICOS EN LA EVOLUCIÓN DE LA INFRAESTRUCTURA
Se han dado desarrollos en el procesamiento de computadoras, y esto ha aumentado en gran manera el poder del cómputo, de ahí toda la evolución que han tenidos las computadoras y a pesar de que la inversión es grande, a largo plazo los costos disminuyen también en gran cantidad. Los desarrollos más importantes son: La ley de Moore y el poder de los microprocesadores Gordon Moore es un director de los Laboratorios de investigación y desarrollo de Fairchild Semiconductor, fue uno de los primeros que fabrico circuitos integrados, escribió en la revista Electronics que desde la introducción del primer chip microprocesador en 1959, el número de componentes en un chip con los menores costos de fabricación por componente se había duplicado cada año, y esto fue precisamente lo que se convirtió en la base de la ley de Moore. Después, redujo la tasa de crecimiento al doble cada dos años. Ahora existen  al menos tres variaciones de ella, cabe destacar que ninguna fue proyectada por Moore.  Un aspecto importante y llamativo es que los transistores de la actualidad ya no deben tener comparación con el tamaño de un cabello humano, sino con el de un virus ya que por medio del uso de la nanotecnología, los fabricantes de chips pueden reducir el tamaño de los transistores hasta la anchura de varios átomos.
Ley del almacenamiento digital masivo, esta ley es un segundo impulsor de tecnología de la infraestructura de TI, la cantidad de información digital se duplica cada año. Por fortuna, el costo de almacenar información digital se está reduciendo a una tasa exponencial del 100 por ciento cada año. La ley de Metcalfe y la economía de red se suman a este conjunto de leyes, Robert Metcalfe quien fue el inventor de la tecnología de red de área local Ethernet. La demanda de tecnología de la información funciona con base en el valor social y comercial de las redes digitales, que multiplican con rapidez los enlaces actuales y potenciales entre los miembros de la red.
 Reducción en los costos de las comunicaciones e Internet, se menciona debido a que también fue un factor que impulso la tecnología de la infraestructura de TI y que a su vez la transformo  consiste en la rápida reducción en los costos de la comunicación y el crecimiento exponencial en el tamaño de Internet. A medida que disminuyen los costos de comunicación y llegan a una cifra muy pequeña que se acerca a 0, por supuesto aumenta el uso de las herramientas de comunicaciones y computación.
 Estándares y efectos de la red
Los estándares de tecnología desencadenan poderosas economías de escala y provocan reducciones en los precios, a medida que los fabricantes se enfocan en producir los productos con base en un solo estándar. Sin estas economías de escala, la computación de cualquier tipo sería mucho más costosa de lo actual.
COMPONENTES DE LA INFRAESTRUCTURA
 En la actualidad, la infraestructura de TI está compuesta de siete componentes principales. La figura 5-9 ilustra estos componentes y los principales distribuidores dentro de cada categoría. Estos son inversiones que se deben coordinar entre sí para proporcionarle  a la empresa una infraestructura adecuada. Estos 7 componentes son: plataformas de hardware de computadora, plataformas de sistemas operativos, aplicaciones de software empresariales, redes/telecomunicaciones, consultores e integradores de sistemas, gestión y almacenamiento y plataformas de Internet. En cuanto a las plataformas de hardware de computadora, el mercado para el hardware de computadora se enfoca cada vez más en las principales empresas como IBM, HP, Dell y Sun Microsystems (adquirida por Oracle), y en tres productores de chips: Intel, AMD e IBM. La industria se decidió en forma colectiva por Intel como el procesador estándar, aunque hay importantes excepciones en el mercado de servidores para las máquinas Unix y Linux, que podrían usar procesadores Sun o IBM Unix. Las mainframes no han desaparecido, sino que más bien se ha incrementado su mercado de manera estable durante la última década, aunque el número de proveedores se redujo a uno que es  IBM. Además, este proveedor readaptó sus sistemas mainframe para poder utilizarlos como servidores gigantes en redes empresariales masivas y sitios Web corporativos. En cuanto a las plataformas de sistemas operativos Microsoft Windows Server es capaz de proveer un sistema operativo y servicios de red a nivel empresarial, y llama la atención de las organizaciones que buscan infraestructuras de TI basadas en Windows (IDC, 2010). Unix y Linux son escalables, confiables y mucho menos costosos que los sistemas operativos de mainframe. También se pueden ejecutar en muchos tipos distintos de procesadores. Los principales proveedores de sistemas operativos Unix son IBM, HP y Sun, cada uno con versiones ligeramente distintas e incompatibles en ciertos aspectos. Las formas de sistema operativo se utilizan para administrar los recursos y actividades de la computadora. El sistema Chrome OS de Google provee un sistema operativo ligero para la computación en la nube mediante el uso de netbooks, Microsoft introdujo el sistema operativo Windows Azure para sus servicios y plataforma en la nube. Android es un sistema operativo móvil desarrollado por Android, estos son algunos ejemplos. El software de sistema operativo cliente convencional está diseñado con base en el ratón y teclado, pero cada vez se vuelve más natural e intuitivo gracias al uso de la tecnología táctil. Como mencione anteriormente otro de los componentes son las aplicaciones de software empresariales. Los proveedores más importantes de software de aplicaciones empresariales son SAP y Oracle.En esta categoría se encuentra  el software middleware que suministran los distribuidores tales como BEA, para alcanzar una integración a nivel empresarial a través de la vinculación de los sistemas de aplicaciones que ya existen en la empresa. Continnnuo con otro componente que es la administración y almacenamiento de datos Organizar y administrar la información de la empresa para poder acceder a ella y utilizarla de manera adecuada, es una tarea del software de gestión de bases de datos empresariales , debido a que la cantidad de nueva información  incrementa de manera extraordinaria en el mundo es que el mercado para los dispositivos de almacenamiento de datos digitales ha estado creciendo a más del 15 por ciento anual durante los últimos cinco años, las empresas grandes están requiriendo  las tecnologías de almacenamiento basadas en red. Las redes de área de almacenamiento (SAN) conectan varios dispositivos en una red separada de alta velocidad, dedicada al almacenamiento. La SAN crea una gran reserva central de almacenamiento disponible para que varios servidores accedan a ella y la compartan. Otro de los componentes que se suman a estos 7 son las plataformas de redes/telecomunicaciones.  Los proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent, Nortel y Juniper Networks. Por lo general, las compañías de servicios de telecomunicaciones/telefónicos que ofrecen conectividad de voz y datos, redes de área amplia, servicios inalámbricos y acceso a Internet son las que proveen las plataformas de telecomunicaciones. Pero también las plataformas de Internet son componentes   que deben estar relacionadas con la infraestructura de redes general de la empresa, además de sus plataformas de hardware y software, se realizan gastos de hardware, software y servicios administrativos para dar soporte al sitio Web de una empresa, que involucra servicios de hospedaje Web, enrutadores y cableado o equipo inalámbrico. Los servicios de consultoría e integración de sistemas es otro componente. Si una organización quiere implementar una nueva infraestructura se necesita que realice cambios considerables en los procesos y procedimientos de negocios, capacitación y educación, e integración de software, la integración de software es tener la seguridad de que la nueva infraestructura funcione con los sistemas anteriores de la empresa, conocidos como sistemas heredados, y también es asegurar que los nuevos elementos de la infraestructura puedan trabajar en conjunto. Por lo general los sistemas heredados son sistemas de procesamiento de transacciones antiguos, creados para computadoras mainframe que se siguen utilizando para evitar el alto costo de reemplazarlos o rediseñarlos. También forma parte de estos componentes la plataforma digital móvil emergente la nueva plataforma móvil también incluye pequeñas subnotebooks ligeras y de bajo costo conocidas como netbooks, optimizadas para la comunicación inalámbrica y el acceso a Internet, con funciones de cómputo básicas tales como procesamiento de palabras; computadoras tipo tableta como el iPad, y lectores digitales de libros electrónicos como el Kindle de Amazon, con ciertas capacidades de acceso a Web. Y por último está el componente de computación en malla que es el proceso de conectar computadoras separadas por límites geográficos en una sola red para crear una supercomputadora virtual, al combinar el poder computacional de todas las computadoras en la malla. De aquí sale un concepto llamado virtualización  que es el proceso de presentar un conjunto de recursos de cómputo de manera que se pueda acceder a todos ellos en formas que no estén restringidas por la configuración física o la ubicación geográfica. La virtualización permite a un solo recurso físico (como un servidor o un dispositivo de almacenamiento) aparecer ante el usuario como varios recursos lógicos, también permite que varios recursos físicos (como dispositivos de almacenamiento o servidores) aparezcan como un solo recurso lógico, como sería el caso con las redes de área de almacenamiento o la computación en malla.
COMPUTACIÓN EN LA NUBE
La computación en la nube, es en donde las empresas y los individuos obtienen procesamiento computacional, almacenamiento, software y otros servicios como una reserva de recursos virtualizados a través de una red, principalmente Internet. Estos recursos se ponen a disposición de los usuarios con base en sus necesidades, sin importar su ubicación física o la de los mismos usuarios. El Instituto nacional estadounidense de estándares y tecnología (NIST) define la computación en la nube como algo que contiene las siguientes características esenciales: autoservicio bajo demanda, acceso ubicuo a la red, agrupamiento de recursos independiente de la ubicación, elasticidad rápida, servicio medido, infraestructura en la nube como un servicio, plataforma en la nube como un servicio y Software en la nube como un servicio. Una nube privada es una red propietaria o un centro de datos propietario que enlaza servidores, almacenamiento, redes, datos y aplicaciones como un conjunto de servicios virtualizados que los usuarios comparten dentro de una compañía. Al igual que las nubes públicas, las nubes privadas pueden asignar almacenamiento, poder de cómputo y otros recursos de manera transparente para proveer recursos de cómputo según sean necesarios. Es probable que las instituciones financieras y los proveedores de servicios médicos graviten hacia las nubes, ya que estas organizaciones manejan muchos datos financieros y personales delicados. En el capítulo 8 analizaremos los aspectos de seguridad de las nubes. Como las organizaciones que utilizan computación en la nube por lo general no son propietarias de la infraestructura, no tienen que realizar grandes inversiones en su propio hardware y software. En cambio, compran sus servicios de cómputo a los proveedores remotos y pagan sólo por la cantidad de poder de cómputo que utilizan en realidad (computación utilitaria), o se les cobra una suscripción mensual o anual.
COMPUTACIÓN VERDE
Al frenar la proliferación de hardware y el consumo de energía, la virtualización se ha convertido en una de las principales tecnologías para promover la computación verde. La computación verde, o TI verde, se refiere a las prácticas y tecnologías para diseñar, fabricar, usar y disponer de computadoras, servidores y dispositivos asociados, como monitores, impresoras, dispositivos de almacenamiento, sistemas de redes y comunicaciones para minimizar el impacto sobre el entorno. Reducir el consumo de poder de cómputo ha sido una prioridad “verde” muy alta.
COMPUTACIÓN AUTONÓMICA La computación autonómica es un esfuerzo a nivel industrial por desarrollar sistemas que se puedan configurar, optimizar, ajustar, arreglarse por sí solos cuando se descompongan y protegerse de los intrusos externos y de la autodestrucción. PROCESADORES DE ALTO RENDIMIENTO Y AHORRO DE ENERGÍA esta es otra forma de reducir los requerimientos de energía y la expansión descontrolada del hardware, por medio del uso de procesadores más eficientes y ahorradores de energía. Esta tecnología permite que dos o más motores de procesamiento con requerimientos de energía y disipación de calor reducidos realicen tareas con más rapidez que un chip que requiere de muchos recursos y que sólo contiene un núcleo de procesamiento.
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE CONTEMPORÁNEAS
En cuanto a este gran tema existen cuatro subtemas importantes en la evolución de las plataformas de software contemporáneas que son: Linux y el software de código fuente abierto: El software de código abierto es software producido por una comunidad de varios cientos de miles de programadores en todo el mundo, es gratis y los usuarios pueden modificarlo. Las obras derivadas del trabajo original también deben ser gratuitas, además de que el usuario puede redistribuir el software sin necesidad de licencias adicionales, el software de código abierto no está restringido a ningún sistema operativo o tecnología de hardware específico, aunque actualmente  la mayor parte del software de código abierto se basa en un sistema operativo Linux o Unix. Java y Ajax: Java es un lenguaje de programación orientado a objetos independiente del sistema operativo e independiente del procesador, que se ha convertido en el principal entorno interactivo para Web, la plataforma de Java ha migrado a los teléfonos celulares, teléfonos inteligentes, automóviles, reproductores de música, máquinas de juegos y por último, a los decodificadores en los sistemas de televisión por cable para ofrecer contenido interactivo y servicios de pago por evento. El software de Java está diseñado para ejecutarse en cualquier computadora o dispositivo de cómputo, sin importar el microprocesador o sistema operativo específico que utilice el dispositivo. A nivel empresarial, Java se utiliza para aplicaciones de comercio electrónico y negocios electrónicos más complejos que requieren comunicación con los sistemas de procesamiento de transacciones del back-end de una organización. Ajax permite que un cliente y un servidor intercambien pequeñas piezas de datos tras bambalinas, de modo que no haya que volver a cargar toda una página Web cada vez que el usuario solicite una modificación. Ajax usa programas de JavaScript que se descargan en su equipo cliente para mantener una conversación casi continua con el servidor que utiliza, con lo cual la experiencia del usuario es más fluida y uniforme.
 Los servicios web y la arquitectura orientada a servicios Los servicios Web se refieren a un conjunto de componentes de software con acoplamiento débil, que intercambian información entre sí mediante el uso de estándares y lenguajes de comunicación Web universales. Pueden intercambiar información entre dos sistemas distintos, sin importar los sistemas operativos o lenguajes de programación en los que se basen esos sistemas. Se pueden utilizar para crear aplicaciones basadas en Web con estándares abiertos que vinculen sistemas de dos organizaciones distintas, y también se pueden usar para crear aplicaciones que vinculen sistemas dispares dentro de una sola compañía.

 INVERSIONES DE INFRAESTRUCTURA INTELIGENTES

 La infraestructura de TI es una importante inversión para la empresa. Si se invierte demasiado en infraestructura, no se aprovecha y constituye un rezago en el desempeño financiero de la empresa. Si se invierte poco, no se podrán ofrecer los servicios de negocios importantes y los competidores de la empresa (que invirtieron la cantidad correcta) superaran a la empresa con la inversión insuficiente. Una empresa debe decidir si  debe comprar y mantener sus propios componentes de infraestructura de TI, o si es mejor que los rente de proveedores externos, entre ellos los que ofrecen servicios en la nube. A la decisión entre comprar sus propios activos de Ti o rentarlos a proveedores externos se le conoce por lo general como la decisión entre rentar y comprar. Tal vez la computación en la nube sea una manera de bajo costo para aumentar la escalabilidad y flexibilidad, pero las empresas deberían evaluar esta opción con cuidado en vista de los requerimientos de seguridad, además del impacto sobre los procesos de negocios y los flujos de trabajo. En ciertos casos, el costo de rentar software resulta ser mayor que el de comprar y mantener una aplicación en forma interna. El costo actual de poseer recursos de tecnología incluye el costo original de adquirir e instalar el hardware y software, así como los costos administrativos continuos para las actualizaciones de hardware y software, mantenimiento, soporte técnico, capacitación e incluso los costos de servicios públicos y bienes raíces para operar y alojar la tecnología. Podemos usar el modelo de Costo Total de Propiedad (TCO) para analizar estos costos directos e indirectos, para ayudar a las empresas a determinar el costo actual de las implementaciones de tecnología específicas.

Aquí una presentación en calameo, con el fin de repasar los temas mas relevantes de este capitulo: 


jueves, 4 de febrero de 2016

Aspectos éticos y sociales en los sistemas de información
Comprensión de los aspectos éticos y sociales relacionados con los sistemas de información
En el tiempo en que estamos, si hablamos de comportamiento o actitudes éticas por lo menos a nivel laboral, ahora más que nunca es el mismo gerente o empleado el que tendrá que tomar la decisión de lo que significa o percibe como una conducta legal y ética apropiada. En el resumen de los capítulos anteriores me he enfocado en los beneficios y ventajas que le ofrecen los sistemas de información a una empresa y como esta los puede utilizar a su favor, sin embargo el ser humano siempre encuentra la manera de darle mal uso a las cosas, lastimosamente los sistemas de información le facilitan al personal de la organización la realización de un fraude. A modo de introducción de este tema quiero dar la definición de ética para irnos empapando del tema, esto es; los principios del bien y el mal que los individuos al actuar  como agentes con libre moral, utilizan para guiar sus comportamientos. Lastimosamente la relación entre la ética y los sistemas de información o bien la tecnología; es muy estrecha, puede ser muy edificante tanto para los empleados como para la organización, pero al mismo tiempo puede ser una amenaza letal dependiendo de la ética de quien esté haciendo uso de los distintos sistemas de información.
Un modelo para pensar sobre los aspectos éticos, sociales y políticos
Los aspectos éticos, sociales y políticos están muy relacionados, cuando se introduce una nueva tecnología de la información el efecto que tendrá será de onda, por lo cual se dan nuevos aspectos éticos sociales y políticos con los cuales lidiar en los distintos niveles. Estos aspectos tienen cinco dimensiones morales: derechos y obligaciones de información, derechos y obligaciones de propiedad, calidad del sistema, calidad de vida y rendición de cuentas y control. Para que una organización se enfrente con éxito ante las posibles acciones antiéticas del personal debe de desarrollar reglas de etiqueta, expectativas, responsabilidad social, actitudes políticamente correctas o reglas aprobadas, este proceso puede ser largo.
TENDENCIAS DE TECNOLOGÍA CLAVE QUE GENERAN ASPECTOS ÉTICOS
En cuanto a lo que se refiere a las tendencias de tecnología clave que generan aspectos éticos, tenemos cuatro que son en primera instancia; que el poder de computo se duplica cada 18 meses y su impacto es que cada vez más organizaciones dependen de los sistemas computacionales para sus operaciones críticas, la segunda tendencia es la de que los costos de almacenamiento de datos disminuyen con rapidez y su impacto es que las organizaciones pueden mantener con facilidad bases de datos detalladas sobre individuos, la tercera tendencia es los avances en el análisis de datos esta impacta en el sentido de que las compañías pueden analizar grandes cantidades de datos recopilados sobre individuos para desarrollar perfiles detallados en su comportamiento individual, y por último se da la tendencia de avances de redes y el impacto o efecto que provoca es que se facilita el hecho de copiar información de una ubicación a otra y acceder a los datos personales desde ubicaciones remotas.
La pregunta es ¿Cómo priorizar la ética en una sociedad de información?
Es simple, la ética es del ser humano, este elige si quiere hacerla parte de su vida o no, es una cuestión de cada persona. Si una persona es ética una de sus cualidades ser ala responsabilidad esto es que acepta los costos, deberes y obligaciones potenciales por las decisiones que toma. Además no le teme a la rendición de cuentas y esto es que las instituciones sociales  tienen mecanismos en vigor para determinar quién tomó una acción responsable, y quién está a cargo, esto permitirá que se pueda realizar un análisis ético de la organización. Además otro concepto que forma parte de lo que llamamos ética es la responsabilidad legal que se refiere a la responsabilidad  que involucra hasta el área de la ley, esta  es una característica de los sistemas políticos en donde entran en vigor un conjunto de leyes que permite a los individuos recuperar los daños que reciben de parte de otros actores, sistemas u organizaciones. Si una persona o mejor dicho el personal de una organización cuenta con estos aspectos entonces se podrá realizar un análisis ético de los sistemas de información y de quienes los administran.
 ANÁLISIS ÉTICO
En cuanto al análisis ético este se puede llevar a cabo con los siguientes pasos:


  1.  Identificar y describir los hechos con claridad: Este consiste en averiguar quién hizo qué a quién, y dónde, cuándo y cómo lo hizo.
  2.   Definir el conflicto o dilema e identificar los valores de mayor orden involucrados: Cuando se habla de valores de mayor orden son por ejemplo, libertad, privacidad, protección de la propiedad y el sistema de libre empresa.
  3.  Identificar a los participantes: Todo aspecto ético, social y político tiene participantes en el acto, se debe averiguar  la identidad de estos grupos y lo que quieren
  4.   Identificar las opciones que se pueden tomar de manera razonable: En ocasiones sucede que se descubre que ninguna de las opciones satisfacen todos los intereses implicados, pero que algunas hacen un mejor trabajo que otras.
  5.  Identificar las consecuencias potenciales de sus opciones: Existen casos en los cuales algunas opciones pueden ser correctas en el sentido ético, pero funestas desde otra perspectiva.

Cuando se ha completado el análisis se requiere seguir  principios éticos que se pueden usar para tomar una decisión algunos de estos son:
  1.      Hacer que queremos que hagan con nosotros.
  2.    Si una acción no es correcta para que todos la tomen, no es correcta para nadie
  3.    Si no se puede tomar una acción en forma repetida, no es correcto tomarla de ningún modo.
  4.      Tome la acción que obtenga el valor más alto o grande.
  5.      Tome la acción que produzca el menor daño o el menor costo potencia
  6.       Suponga que casi todos los objetos tangibles e intangibles le pertenecen a alguien más, a menos que haya una declaración específica de lo contrario.


CÓDIGOS PROFESIONALES DE CONDUCTA
Los códigos profesionales de conducta se promulgan mediante asociaciones de profesionales, como la Asociación Médica Estadounidense (AMA), el Colegio Estadounidense de Abogados (ABA), la Asociación de Profesionales en Tecnología de la Información (AITP) y la Asociación de Maquinaria Computacional (ACM). Estos son los responsables de darle regulación de manera parcial a sus profesiones al determinar los requisitos de entrada y la competencia. Los códigos de ética son promesas que hacen las profesiones de regularse a sí mismas en el interés general de la sociedad.

LAS DIMENSIONES MORALES DE LOS SISTEMAS DE INFORMACIÓN

DERECHOS DE INFORMACIÓN: PRIVACIDAD Y LIBERTAD EN LA ERA DE INTERNET:
Todos tenemos derecho a no ser molestados, a que no estén siempre vigilándonos o interfiriendo en nuestra vida y eso precisamente es la privacidad, los derechos a la privacidad también se ven implicados en el lugar de trabajo ya que los trabajadores se deben someter a formas electrónicas y otros tipos de vigilancia. El derecho a la privacidad está protegido en varios estatutos de los distintos países.  
Desafíos de Internet para la privacidad
Personalmente acerca de este tema, el otro día estaba viendo un artículo en el cual decía que los usuarios de Internet creemos que todas esas facilidades que nos ofrece esta red o la mayoría de ellas son gratis, pero no en realidad el precio que pagamos es bastante, ya que pagamos con nuestra información la cual  se envía a través de esta enorme red de redes puede pasar por muchos sistemas computacionales distintos antes de llegar a su destino final, lo que sucede es que cada uno de estos sistemas es capaz de monitorear, capturar y almacenar las comunicaciones que pasan a través del mismo. Fácilmente se puede rastrear el historial de las actividades que hacemos o lo que buscamos, los sitios Web y las páginas Web que se visitaron, el contenido en línea al que hemos accedido, y qué elementos hemos comprado a través de Web, el gran detalle es que no nos damos cuenta de quien lo está inspeccionando. Como hemos venido comentando a  nivel de negocio estos sistemas de información son de gran ayuda ya que ayudan a las empresas a determinar quién visita sus sitios Web y cómo pueden dirigir mejor sus ofertas algunas empresas también monitorean la forma en que sus empleados usan Internet, para ver cómo utilizan los recursos de red de la compañía. Los sitios Web también pueden obtener información sobre los visitantes sin que éstos lo sepan, mediante el uso de la tecnología de cookies, esto son pequeños archivos de texto que se depositan en el disco duro de una computadora cuando un usuario visita sitios Web, los cookies identifican el software navegador Web del visitante y rastrean las visitas al sitio, por eso es importante poner atención en los sitios ya que a veces informan que ese sitio trabaja con cookies. Cuando el visitante regresa a un sitio que tiene almacenado un cookie, el software del sitio Web busca en la computadora del visitante, encuentra el cookie y sabe qué ha hecho esa persona en el pasado.  Se puede ver la manera en la que trabaja el cookie en este ejemplo: Si usted compra un libro en Amazon.com y regresa más tarde en el mismo navegador, el sitio le dará la bienvenida por su nombre y le recomendará otros libros de interés, con base en sus compras en el pasado. Los comercializadores usan bugs Web como otra herramienta para monitorear el comportamiento en línea. Otra herramienta para rastrear al cliente son  los bugs Web o bien llamados bichos web los cuales son objetos pequeños que se encuentran de manera invisible en los mensajes de correo electrónico y las páginas Web con el fin de  monitorear el comportamiento del usuario que visita un sitio o envía un correo electrónico. Los sitios populares contienen de 25 a 35 de estos bugs. Herramientas para llevar a cabo este tipo de actividades sobran y otra de ellas es el spyware que se puede instalar de manera secreta a sí mismo en la computadora de un usuario de Internet, para lo cual se aprovecha de las aplicaciones más grandes, luego de que se instala, se contacta con los sitios Web para que envíen anuncios pancarta y diversos tipos de material no solicitado al usuario, y también revelan información sobre los movimientos del usuario en Internet a otras computadoras.
Un aspecto importante y al cual no le damos mucha importancia más que todo porque probablemente lo ignorábamos es que Google es el mayor recolector de datos de usuarios en línea a nivel mundial entonces lo que haga Google con los datos que obtiene tiene un efecto sobre la privacidad en línea. Uno de los programas de Google le facilita  a los anunciantes dirigir su publicidad con base en los historiales de búsqueda de los usuarios, junto con cualquier otra información que el usuario envíe a Google y que éste pueda obtener, como la edad, región demográfica y otras actividades Web. Google también cuenta con otro programa adicional que le  permite ayudar a los anunciantes a seleccionar palabras clave y de esta manera diseñar anuncios para diversos segmentos del mercado de acuerdo con los historiales de búsqueda. Además Google también explora lo que contienen los mensajes que reciben los usuarios de su servicio de correo electrónico gratuito, lo que llamamos Gmail que casi todos tenemos uno, pero aquí no se acaban las facilidades con las que cuenta Google ya que ahora muestra anuncios dirigidos en YouTube y en aplicaciones móviles de Google, y su red de anuncios DoubleClick sirve los anuncios de pancarta dirigidos.
Con todo esto, el lector puede estar asustado y sin querer volver a dar sus datos en ningún sitio web pero algo bueno  de todo esto es que por lo menos en  Estados Unidos los sitios de comercio electrónico están en gran parte contentos con publicar declaraciones en sus sitios Web para informar a los visitantes en cuanto a la forma en que se utilizará su información y ya hasta algunos han agregado a estas declaraciones de las políticas de la información cuadros de selección para que los visitantes opten por no dar su consentimiento. Sin embargo lastimosamente la mayoría de las empresas en Internet hacen poco por proteger la privacidad de sus clientes, pero la falla no está solo en estas sino también en los consumidores que no hacen todo lo que deberían por protegerse, menos de la mitad leen las declaraciones de privacidad en los sitios Web.
Soluciones técnicas
Satisfactoriamente no todo es malo a la tecnología también se le puede sacar provecho para resolver estos problemas ya que existen nuevas tecnologías para proteger la privacidad de los usuarios durante las interacciones con los sitios Web .La Plataforma de Preferencias de Privacidad, conocida como P3P, permite la comunicación automática de las políticas de privacidad entre un sitio de comercio electrónico y sus visitantes. Además están los derechos de propiedad intelectual, la propiedad intelectual se refiere a  la propiedad intangible creada por personas o corporaciones, esta se encuentra bajo diferentes protecciones de tres tradiciones legales distintas: secretos comerciales que es cuando cualquier producto del trabajo intelectual se requiere para un propósito de negocio, siempre y cuando no se base en información en el dominio público; además están los derechos de autor que son una concesión legal que le da protección a los creadores de  propiedad intelectual para que nadie más se lo copie incluso después de 70 años de muerto el autor. Y por último esta la ley de patentes; una patente otorga al propietario un monopolio exclusivo sobre las ideas detrás de una invención durante 20 años. Esta ley se crea para asegurar que los inventores de nuevas máquinas, dispositivos o métodos recibieran las recompensas financieras completas junto con otras recompensas adicionales por su labor, y que al mismo tiempo fuera posible un uso extendido de la invención al proporcionar diagramas detallados para quienes desearan usar la idea bajo licencia del propietario de la patente. Los conceptos clave en la ley de patentes son originalidad, novedad e invención.
RENDICIÓN DE CUENTAS, RESPONSABILIDAD LEGAL Y CONTROL
Las tecnologías que cada vez se incorporan más en el mundo de los negocios también desafían las leyes de responsabilidad legal existentes así como las prácticas sociales de rendición de cuentas de los individuos y las instituciones. Esto de la rendición de cuentas, responsabilidad legal y control se explica fácil con estos ejemplos: 1) Si una persona se lesiona debido a una máquina controlada, en parte, por software, ¿quién debe rendir cuentas de ello y hacerse responsable en el sentido legal? ¿Un tablero de anuncios públicos o un servicio electrónico, debe permitir que se transmita material pornográfico u ofensivo, o debe librarse de cualquier responsabilidad legal con respecto a lo que transmitan los usuarios? ¿Qué hay sobre Internet? Estas son las dificultades a las que se enfrentan los ejecutivos de sistemas de información que, en última instancia, son responsables de los daños realizados por los sistemas desarrollados por su personal. En la medida en que el software sea parte de una máquina, y ésta provoque daños físicos o económicos, el productor del software y el operador se pueden hacer responsables legales de los daños. Cuando se da el caso de que el software actúa como un libro, en donde almacena y muestra información, los juzgados se han mostrado renuentes a responsabilizar de manera legal a los autores, las editoriales y los vendedores de libros por el contenido (excepto en los casos de fraude o difamación), y en consecuencia han tenido mucha cautela a la hora de responsabilizar a los autores de software por el software tipo libro.

CALIDAD DEL SISTEMA: CALIDAD DE DATOS Y ERRORES DEL SISTEMA
Los gerentes de sistemas deben ser muy cuidadosos y perfeccionar muy bien el software antes de embarcarlo, ya que las consecuencias de que se den errores en el sistema son considerables y quienes se responsabilizan de eso  son los individuos y las organizaciones ya que son cosas que se pueden evitar y prevenir, para así poder corregir, lo que sucede es que algunos errores de sistemas que son predecibles y corregibles es sólo mediante un costo muy alto, tan alto que no es económicamente viable buscar este nivel de perfección; nadie podría costear el producto.

CALIDAD DE VIDA: EQUIDAD, ACCESO Y LÍMITES

Aun con todas las ventajas que tienen las computadoras y las tecnologías de la información estas  tienen el poder de  llegar a destruir elementos valiosos de nuestra cultura y sociedad.
Algunas de las consecuencias sociales negativas de los sistemas son: Balanceo del poder: centralizado vs. Periférico, rapidez del cambio, mantenimiento de los límites: familia, trabajo y diversión, dependencia y vulnerabilidad, crimen por computadora, empleo: tecnología de derrame y pérdida de empleos de reingeniería, equidad y acceso, Riesgos de salud: RSI, CVS y tecnoestrés.

A continuación les dejo un vídeo creado por mi, a modo de hacer consciencia y de darle un uso ético a tan  valiosa herramienta en los negocios como lo son los sistemas de información.