viernes, 12 de febrero de 2016

Resumen del capitulo 5:

INFRAESTRUCTURA DE TI
Para entender este apartado es necesario recordar que la infraestructura de tecnología de la información es el conjunto de recursos de tecnología compartidos que suministran la plataforma de TI para las aplicaciones de sistemas de información específicas para la empresa. Contar en una organización con esa infraestructura es importante porque proporciona la base para dar servicio a los clientes, trabajar con los distribuidores y gestionar los procesos de negocios internos y debido a que son tan importantes y valiosas en una organización es que son asimismo inversiones  costosas , las inversiones en infraestructura representan entre el 25 y 50 por ciento de los gastos en tecnología de la información en las empresas grandes, encabezadas por las de servicios financieros en las que la TI representa más de la mitad de toda la inversión de capital.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI
50 años de estar evolucionando las computadoras, para que las organización puedan aprovechar actualmente todas las funcionalidades de las mismas, esta evolución consta de 5 etapas que son: la computación con mainframes y minicomputadoras de propósito general, las microcomputadoras mejor conocidas como computadoras personales, las redes cliente/servidor, la computación empresarial y la computación en la nube y móvil. A continuación una breve descripción de lo más relevante de cada era:
Era de las mainframes y minicomputadoras de propósito general (1959 a la fecha): Al incorporarse las máquinas transistorizadas IBM 1401 y 7090 en 1959 se marcó el comienzo del uso comercial extendido de las computadoras mainframe. La computadora comercial con un poderoso sistema operativo que podía proporcionar tiempo compartido, multitareas y memoria virtual en modelos más avanzados, fue la primera computadora mainframe de la serie IBM 360. Fue un periodo de computación con mucha centralización bajo el control de programadores y operadores de sistemas profesionales, en donde la mayoría de los elementos de la infraestructura los proveía un solo distribuidor, el fabricante del hardware y del software, esto comenzó a cambiar con la llegada de las minicomputadoras producidas por Digital Equipment Corporation (DEC) en 1965. Las minicomputadoras DEC (PDP-11 y más adelante las máquinas VAX) su gran utilidad es que  prometían máquinas poderosas a precios mucho más reducidos  que las mainframes de IBM, lo que creo la computación descentralizada, personalizada de acuerdo  a las necesidades específicas de los departamentos individuales o las unidades de negocios ya se dejo de compartir el tiempo en una sola y enorme mainframe, cabe destacar que  la minicomputadora evolucionó en una computadora o servidor de medio rango y forma parte de una red. Por lo tanto se viene la Era de la computadora personal (1981 a la fecha) La computadora Wintel PC (sistema operativo Windows en una computadora con un microprocesador Intel, se convirtió en la computadora personal de escritorio estándar. Estas PCs eran sistemas independientes hasta que el software de sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes. Luego se introduce la Era cliente/servidor (1983 a la fecha) esto es que  las computadoras de escritorio o laptop conocidas como clientes se conectan en red a poderosas computadoras servidores que proveen a las computadoras clientes una variedad de servicios y herramientas, el cliente es el punto de entrada del usuario, mientras que el servidor por lo general procesa y almacena datos compartidos, sirve páginas Web o gestiona las actividades de la red, es importante reconocer determinados conceptos para entender esta materia como por ejemplo el término “servidor” que  se refiere tanto a la aplicación de software como a la computadora física en la que se ejecuta el software de red, el procesamiento se divide entre los dos tipos de máquinas a esto se le llama arquitectura cliente/servidor de dos niveles.         Pueden existir redes cliente/servidor desde las más simples hasta las más complejas dependiendo de la organización. Su importancia radica en que permite a las empresas distribuir el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que cuestan mucho menos que las minicomputadoras o los sistemas mainframe centralizados. Luego se incorpora la Era de la computación empresarial (1992 a la fecha) se dan sus inicios cuando a principios de la década de 1990, las empresas recurrieron a estándares de redes y herramientas de software que pudieran integrar redes y aplicaciones dispares esparcidas por toda la empresa en una infraestructura a nivel empresarial. La infraestructura de TI que resulta de esto es la que  enlaza distintas piezas de hardware de computadora y redes más pequeñas en una sola red a nivel empresarial, entonces la información pueda fluir con libertad por toda la organización, y también entre la empresa y otras organizaciones; cuenta con infraestructuras públicas como el sistema telefónico, Internet y los servicios de redes públicas, para todo esto se requiere la utilización de un software. Pero las eras no terminan porque la tecnología es lo que evoluciona más rápido y por lo tanto surge la  Era de la computación en la nube y móvil (2000 a la fecha) se da un avance en el modelo cliente/servidor hacia el Modelo de computación en la nube, gracias al poder cada vez mayor del ancho de banda de Internet. La computación en la nube es un modelo de cómputo que suministra acceso a una reserva compartida de recursos computacionales (computadoras, almacenamiento, aplicaciones y servicios) a través de una red, que por lo general es Internet, actualmente, la computación en la nube es la forma de computación con crecimiento más rápido. Las empresas de software como Google, Microsoft, SAP, Oracle y Salesforce. com venden aplicaciones de software como servicios que se ofrecen a través de Internet.
IMPULSORES TECNOLÓGICOS EN LA EVOLUCIÓN DE LA INFRAESTRUCTURA
Se han dado desarrollos en el procesamiento de computadoras, y esto ha aumentado en gran manera el poder del cómputo, de ahí toda la evolución que han tenidos las computadoras y a pesar de que la inversión es grande, a largo plazo los costos disminuyen también en gran cantidad. Los desarrollos más importantes son: La ley de Moore y el poder de los microprocesadores Gordon Moore es un director de los Laboratorios de investigación y desarrollo de Fairchild Semiconductor, fue uno de los primeros que fabrico circuitos integrados, escribió en la revista Electronics que desde la introducción del primer chip microprocesador en 1959, el número de componentes en un chip con los menores costos de fabricación por componente se había duplicado cada año, y esto fue precisamente lo que se convirtió en la base de la ley de Moore. Después, redujo la tasa de crecimiento al doble cada dos años. Ahora existen  al menos tres variaciones de ella, cabe destacar que ninguna fue proyectada por Moore.  Un aspecto importante y llamativo es que los transistores de la actualidad ya no deben tener comparación con el tamaño de un cabello humano, sino con el de un virus ya que por medio del uso de la nanotecnología, los fabricantes de chips pueden reducir el tamaño de los transistores hasta la anchura de varios átomos.
Ley del almacenamiento digital masivo, esta ley es un segundo impulsor de tecnología de la infraestructura de TI, la cantidad de información digital se duplica cada año. Por fortuna, el costo de almacenar información digital se está reduciendo a una tasa exponencial del 100 por ciento cada año. La ley de Metcalfe y la economía de red se suman a este conjunto de leyes, Robert Metcalfe quien fue el inventor de la tecnología de red de área local Ethernet. La demanda de tecnología de la información funciona con base en el valor social y comercial de las redes digitales, que multiplican con rapidez los enlaces actuales y potenciales entre los miembros de la red.
 Reducción en los costos de las comunicaciones e Internet, se menciona debido a que también fue un factor que impulso la tecnología de la infraestructura de TI y que a su vez la transformo  consiste en la rápida reducción en los costos de la comunicación y el crecimiento exponencial en el tamaño de Internet. A medida que disminuyen los costos de comunicación y llegan a una cifra muy pequeña que se acerca a 0, por supuesto aumenta el uso de las herramientas de comunicaciones y computación.
 Estándares y efectos de la red
Los estándares de tecnología desencadenan poderosas economías de escala y provocan reducciones en los precios, a medida que los fabricantes se enfocan en producir los productos con base en un solo estándar. Sin estas economías de escala, la computación de cualquier tipo sería mucho más costosa de lo actual.
COMPONENTES DE LA INFRAESTRUCTURA
 En la actualidad, la infraestructura de TI está compuesta de siete componentes principales. La figura 5-9 ilustra estos componentes y los principales distribuidores dentro de cada categoría. Estos son inversiones que se deben coordinar entre sí para proporcionarle  a la empresa una infraestructura adecuada. Estos 7 componentes son: plataformas de hardware de computadora, plataformas de sistemas operativos, aplicaciones de software empresariales, redes/telecomunicaciones, consultores e integradores de sistemas, gestión y almacenamiento y plataformas de Internet. En cuanto a las plataformas de hardware de computadora, el mercado para el hardware de computadora se enfoca cada vez más en las principales empresas como IBM, HP, Dell y Sun Microsystems (adquirida por Oracle), y en tres productores de chips: Intel, AMD e IBM. La industria se decidió en forma colectiva por Intel como el procesador estándar, aunque hay importantes excepciones en el mercado de servidores para las máquinas Unix y Linux, que podrían usar procesadores Sun o IBM Unix. Las mainframes no han desaparecido, sino que más bien se ha incrementado su mercado de manera estable durante la última década, aunque el número de proveedores se redujo a uno que es  IBM. Además, este proveedor readaptó sus sistemas mainframe para poder utilizarlos como servidores gigantes en redes empresariales masivas y sitios Web corporativos. En cuanto a las plataformas de sistemas operativos Microsoft Windows Server es capaz de proveer un sistema operativo y servicios de red a nivel empresarial, y llama la atención de las organizaciones que buscan infraestructuras de TI basadas en Windows (IDC, 2010). Unix y Linux son escalables, confiables y mucho menos costosos que los sistemas operativos de mainframe. También se pueden ejecutar en muchos tipos distintos de procesadores. Los principales proveedores de sistemas operativos Unix son IBM, HP y Sun, cada uno con versiones ligeramente distintas e incompatibles en ciertos aspectos. Las formas de sistema operativo se utilizan para administrar los recursos y actividades de la computadora. El sistema Chrome OS de Google provee un sistema operativo ligero para la computación en la nube mediante el uso de netbooks, Microsoft introdujo el sistema operativo Windows Azure para sus servicios y plataforma en la nube. Android es un sistema operativo móvil desarrollado por Android, estos son algunos ejemplos. El software de sistema operativo cliente convencional está diseñado con base en el ratón y teclado, pero cada vez se vuelve más natural e intuitivo gracias al uso de la tecnología táctil. Como mencione anteriormente otro de los componentes son las aplicaciones de software empresariales. Los proveedores más importantes de software de aplicaciones empresariales son SAP y Oracle.En esta categoría se encuentra  el software middleware que suministran los distribuidores tales como BEA, para alcanzar una integración a nivel empresarial a través de la vinculación de los sistemas de aplicaciones que ya existen en la empresa. Continnnuo con otro componente que es la administración y almacenamiento de datos Organizar y administrar la información de la empresa para poder acceder a ella y utilizarla de manera adecuada, es una tarea del software de gestión de bases de datos empresariales , debido a que la cantidad de nueva información  incrementa de manera extraordinaria en el mundo es que el mercado para los dispositivos de almacenamiento de datos digitales ha estado creciendo a más del 15 por ciento anual durante los últimos cinco años, las empresas grandes están requiriendo  las tecnologías de almacenamiento basadas en red. Las redes de área de almacenamiento (SAN) conectan varios dispositivos en una red separada de alta velocidad, dedicada al almacenamiento. La SAN crea una gran reserva central de almacenamiento disponible para que varios servidores accedan a ella y la compartan. Otro de los componentes que se suman a estos 7 son las plataformas de redes/telecomunicaciones.  Los proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent, Nortel y Juniper Networks. Por lo general, las compañías de servicios de telecomunicaciones/telefónicos que ofrecen conectividad de voz y datos, redes de área amplia, servicios inalámbricos y acceso a Internet son las que proveen las plataformas de telecomunicaciones. Pero también las plataformas de Internet son componentes   que deben estar relacionadas con la infraestructura de redes general de la empresa, además de sus plataformas de hardware y software, se realizan gastos de hardware, software y servicios administrativos para dar soporte al sitio Web de una empresa, que involucra servicios de hospedaje Web, enrutadores y cableado o equipo inalámbrico. Los servicios de consultoría e integración de sistemas es otro componente. Si una organización quiere implementar una nueva infraestructura se necesita que realice cambios considerables en los procesos y procedimientos de negocios, capacitación y educación, e integración de software, la integración de software es tener la seguridad de que la nueva infraestructura funcione con los sistemas anteriores de la empresa, conocidos como sistemas heredados, y también es asegurar que los nuevos elementos de la infraestructura puedan trabajar en conjunto. Por lo general los sistemas heredados son sistemas de procesamiento de transacciones antiguos, creados para computadoras mainframe que se siguen utilizando para evitar el alto costo de reemplazarlos o rediseñarlos. También forma parte de estos componentes la plataforma digital móvil emergente la nueva plataforma móvil también incluye pequeñas subnotebooks ligeras y de bajo costo conocidas como netbooks, optimizadas para la comunicación inalámbrica y el acceso a Internet, con funciones de cómputo básicas tales como procesamiento de palabras; computadoras tipo tableta como el iPad, y lectores digitales de libros electrónicos como el Kindle de Amazon, con ciertas capacidades de acceso a Web. Y por último está el componente de computación en malla que es el proceso de conectar computadoras separadas por límites geográficos en una sola red para crear una supercomputadora virtual, al combinar el poder computacional de todas las computadoras en la malla. De aquí sale un concepto llamado virtualización  que es el proceso de presentar un conjunto de recursos de cómputo de manera que se pueda acceder a todos ellos en formas que no estén restringidas por la configuración física o la ubicación geográfica. La virtualización permite a un solo recurso físico (como un servidor o un dispositivo de almacenamiento) aparecer ante el usuario como varios recursos lógicos, también permite que varios recursos físicos (como dispositivos de almacenamiento o servidores) aparezcan como un solo recurso lógico, como sería el caso con las redes de área de almacenamiento o la computación en malla.
COMPUTACIÓN EN LA NUBE
La computación en la nube, es en donde las empresas y los individuos obtienen procesamiento computacional, almacenamiento, software y otros servicios como una reserva de recursos virtualizados a través de una red, principalmente Internet. Estos recursos se ponen a disposición de los usuarios con base en sus necesidades, sin importar su ubicación física o la de los mismos usuarios. El Instituto nacional estadounidense de estándares y tecnología (NIST) define la computación en la nube como algo que contiene las siguientes características esenciales: autoservicio bajo demanda, acceso ubicuo a la red, agrupamiento de recursos independiente de la ubicación, elasticidad rápida, servicio medido, infraestructura en la nube como un servicio, plataforma en la nube como un servicio y Software en la nube como un servicio. Una nube privada es una red propietaria o un centro de datos propietario que enlaza servidores, almacenamiento, redes, datos y aplicaciones como un conjunto de servicios virtualizados que los usuarios comparten dentro de una compañía. Al igual que las nubes públicas, las nubes privadas pueden asignar almacenamiento, poder de cómputo y otros recursos de manera transparente para proveer recursos de cómputo según sean necesarios. Es probable que las instituciones financieras y los proveedores de servicios médicos graviten hacia las nubes, ya que estas organizaciones manejan muchos datos financieros y personales delicados. En el capítulo 8 analizaremos los aspectos de seguridad de las nubes. Como las organizaciones que utilizan computación en la nube por lo general no son propietarias de la infraestructura, no tienen que realizar grandes inversiones en su propio hardware y software. En cambio, compran sus servicios de cómputo a los proveedores remotos y pagan sólo por la cantidad de poder de cómputo que utilizan en realidad (computación utilitaria), o se les cobra una suscripción mensual o anual.
COMPUTACIÓN VERDE
Al frenar la proliferación de hardware y el consumo de energía, la virtualización se ha convertido en una de las principales tecnologías para promover la computación verde. La computación verde, o TI verde, se refiere a las prácticas y tecnologías para diseñar, fabricar, usar y disponer de computadoras, servidores y dispositivos asociados, como monitores, impresoras, dispositivos de almacenamiento, sistemas de redes y comunicaciones para minimizar el impacto sobre el entorno. Reducir el consumo de poder de cómputo ha sido una prioridad “verde” muy alta.
COMPUTACIÓN AUTONÓMICA La computación autonómica es un esfuerzo a nivel industrial por desarrollar sistemas que se puedan configurar, optimizar, ajustar, arreglarse por sí solos cuando se descompongan y protegerse de los intrusos externos y de la autodestrucción. PROCESADORES DE ALTO RENDIMIENTO Y AHORRO DE ENERGÍA esta es otra forma de reducir los requerimientos de energía y la expansión descontrolada del hardware, por medio del uso de procesadores más eficientes y ahorradores de energía. Esta tecnología permite que dos o más motores de procesamiento con requerimientos de energía y disipación de calor reducidos realicen tareas con más rapidez que un chip que requiere de muchos recursos y que sólo contiene un núcleo de procesamiento.
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE CONTEMPORÁNEAS
En cuanto a este gran tema existen cuatro subtemas importantes en la evolución de las plataformas de software contemporáneas que son: Linux y el software de código fuente abierto: El software de código abierto es software producido por una comunidad de varios cientos de miles de programadores en todo el mundo, es gratis y los usuarios pueden modificarlo. Las obras derivadas del trabajo original también deben ser gratuitas, además de que el usuario puede redistribuir el software sin necesidad de licencias adicionales, el software de código abierto no está restringido a ningún sistema operativo o tecnología de hardware específico, aunque actualmente  la mayor parte del software de código abierto se basa en un sistema operativo Linux o Unix. Java y Ajax: Java es un lenguaje de programación orientado a objetos independiente del sistema operativo e independiente del procesador, que se ha convertido en el principal entorno interactivo para Web, la plataforma de Java ha migrado a los teléfonos celulares, teléfonos inteligentes, automóviles, reproductores de música, máquinas de juegos y por último, a los decodificadores en los sistemas de televisión por cable para ofrecer contenido interactivo y servicios de pago por evento. El software de Java está diseñado para ejecutarse en cualquier computadora o dispositivo de cómputo, sin importar el microprocesador o sistema operativo específico que utilice el dispositivo. A nivel empresarial, Java se utiliza para aplicaciones de comercio electrónico y negocios electrónicos más complejos que requieren comunicación con los sistemas de procesamiento de transacciones del back-end de una organización. Ajax permite que un cliente y un servidor intercambien pequeñas piezas de datos tras bambalinas, de modo que no haya que volver a cargar toda una página Web cada vez que el usuario solicite una modificación. Ajax usa programas de JavaScript que se descargan en su equipo cliente para mantener una conversación casi continua con el servidor que utiliza, con lo cual la experiencia del usuario es más fluida y uniforme.
 Los servicios web y la arquitectura orientada a servicios Los servicios Web se refieren a un conjunto de componentes de software con acoplamiento débil, que intercambian información entre sí mediante el uso de estándares y lenguajes de comunicación Web universales. Pueden intercambiar información entre dos sistemas distintos, sin importar los sistemas operativos o lenguajes de programación en los que se basen esos sistemas. Se pueden utilizar para crear aplicaciones basadas en Web con estándares abiertos que vinculen sistemas de dos organizaciones distintas, y también se pueden usar para crear aplicaciones que vinculen sistemas dispares dentro de una sola compañía.

 INVERSIONES DE INFRAESTRUCTURA INTELIGENTES

 La infraestructura de TI es una importante inversión para la empresa. Si se invierte demasiado en infraestructura, no se aprovecha y constituye un rezago en el desempeño financiero de la empresa. Si se invierte poco, no se podrán ofrecer los servicios de negocios importantes y los competidores de la empresa (que invirtieron la cantidad correcta) superaran a la empresa con la inversión insuficiente. Una empresa debe decidir si  debe comprar y mantener sus propios componentes de infraestructura de TI, o si es mejor que los rente de proveedores externos, entre ellos los que ofrecen servicios en la nube. A la decisión entre comprar sus propios activos de Ti o rentarlos a proveedores externos se le conoce por lo general como la decisión entre rentar y comprar. Tal vez la computación en la nube sea una manera de bajo costo para aumentar la escalabilidad y flexibilidad, pero las empresas deberían evaluar esta opción con cuidado en vista de los requerimientos de seguridad, además del impacto sobre los procesos de negocios y los flujos de trabajo. En ciertos casos, el costo de rentar software resulta ser mayor que el de comprar y mantener una aplicación en forma interna. El costo actual de poseer recursos de tecnología incluye el costo original de adquirir e instalar el hardware y software, así como los costos administrativos continuos para las actualizaciones de hardware y software, mantenimiento, soporte técnico, capacitación e incluso los costos de servicios públicos y bienes raíces para operar y alojar la tecnología. Podemos usar el modelo de Costo Total de Propiedad (TCO) para analizar estos costos directos e indirectos, para ayudar a las empresas a determinar el costo actual de las implementaciones de tecnología específicas.

Aquí una presentación en calameo, con el fin de repasar los temas mas relevantes de este capitulo: 


No hay comentarios:

Publicar un comentario