INFRAESTRUCTURA DE TI
Para entender este apartado es
necesario recordar que la infraestructura de tecnología de la información es el
conjunto de recursos de tecnología compartidos que suministran la plataforma de
TI para las aplicaciones de sistemas de información específicas para la
empresa. Contar en una organización con esa infraestructura es importante porque
proporciona la base para dar servicio a los clientes, trabajar con los
distribuidores y gestionar los procesos de negocios internos y debido a que son
tan importantes y valiosas en una organización es que son asimismo inversiones costosas , las inversiones en infraestructura
representan entre el 25 y 50 por ciento de los gastos en tecnología de la
información en las empresas grandes, encabezadas por las de servicios
financieros en las que la TI representa más de la mitad de toda la inversión de
capital.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI
50 años de estar evolucionando
las computadoras, para que las organización puedan aprovechar actualmente todas
las funcionalidades de las mismas, esta evolución consta de 5 etapas que son: la
computación con mainframes y minicomputadoras de propósito general, las
microcomputadoras mejor conocidas como computadoras personales, las redes
cliente/servidor, la computación empresarial y la computación en la nube y
móvil. A continuación una breve descripción de lo más relevante de cada era:
Era de las mainframes y minicomputadoras de propósito general (1959
a la fecha): Al incorporarse las máquinas transistorizadas IBM 1401 y 7090 en
1959 se marcó el comienzo del uso comercial extendido de las computadoras
mainframe. La computadora comercial con un poderoso sistema operativo que podía
proporcionar tiempo compartido, multitareas y memoria virtual en modelos más
avanzados, fue la primera computadora mainframe de la serie IBM 360. Fue un
periodo de computación con mucha centralización bajo el control de
programadores y operadores de sistemas profesionales, en donde la mayoría de
los elementos de la infraestructura los proveía un solo distribuidor, el
fabricante del hardware y del software, esto comenzó a cambiar con la llegada
de las minicomputadoras producidas por Digital Equipment Corporation (DEC) en
1965. Las minicomputadoras DEC (PDP-11 y más adelante las máquinas VAX) su gran
utilidad es que prometían máquinas poderosas
a precios mucho más reducidos que las
mainframes de IBM, lo que creo la computación descentralizada, personalizada de
acuerdo a las necesidades específicas de
los departamentos individuales o las unidades de negocios ya se dejo de compartir
el tiempo en una sola y enorme mainframe, cabe destacar que la minicomputadora evolucionó en una
computadora o servidor de medio rango y forma parte de una red. Por lo tanto se
viene la Era de la computadora personal (1981 a la fecha) La
computadora Wintel PC (sistema operativo Windows en una computadora con un
microprocesador Intel, se convirtió en la computadora personal de escritorio
estándar. Estas PCs eran sistemas independientes hasta que el software de
sistema operativo de PC en la década de 1990 hizo posible enlazarlas en redes. Luego
se introduce la Era cliente/servidor
(1983 a la fecha) esto es que las
computadoras de escritorio o laptop conocidas como clientes se conectan en red
a poderosas computadoras servidores que proveen a las computadoras clientes una
variedad de servicios y herramientas, el cliente es el punto de entrada del
usuario, mientras que el servidor por lo general procesa y almacena datos
compartidos, sirve páginas Web o gestiona las actividades de la red, es
importante reconocer determinados conceptos para entender esta materia como por
ejemplo el término “servidor” que se
refiere tanto a la aplicación de software como a la computadora física en la
que se ejecuta el software de red, el procesamiento se divide entre los dos
tipos de máquinas a esto se le llama arquitectura cliente/servidor de dos
niveles. Pueden existir redes
cliente/servidor desde las más simples hasta las más complejas dependiendo de
la organización. Su importancia radica en que permite a las empresas distribuir
el trabajo de cómputo entre una serie de máquinas más pequeñas y económicas que
cuestan mucho menos que las minicomputadoras o los sistemas mainframe
centralizados. Luego se incorpora la Era
de la computación empresarial (1992 a la fecha) se dan sus inicios cuando a
principios de la década de 1990, las empresas recurrieron a estándares de redes
y herramientas de software que pudieran integrar redes y aplicaciones dispares
esparcidas por toda la empresa en una infraestructura a nivel empresarial. La infraestructura
de TI que resulta de esto es la que enlaza distintas piezas de hardware de
computadora y redes más pequeñas en una sola red a nivel empresarial, entonces la
información pueda fluir con libertad por toda la organización, y también entre
la empresa y otras organizaciones; cuenta con infraestructuras públicas como el
sistema telefónico, Internet y los servicios de redes públicas, para todo esto se
requiere la utilización de un software. Pero las eras no terminan porque la tecnología
es lo que evoluciona más rápido y por lo tanto surge la Era de
la computación en la nube y móvil (2000 a la fecha) se da un avance en el
modelo cliente/servidor hacia el Modelo de computación en la nube, gracias al
poder cada vez mayor del ancho de banda de Internet. La computación en la nube
es un modelo de cómputo que suministra acceso a una reserva compartida de
recursos computacionales (computadoras, almacenamiento, aplicaciones y
servicios) a través de una red, que por lo general es Internet, actualmente, la
computación en la nube es la forma de computación con crecimiento más rápido.
Las empresas de software como Google, Microsoft, SAP, Oracle y Salesforce. com
venden aplicaciones de software como servicios que se ofrecen a través de
Internet.
IMPULSORES TECNOLÓGICOS EN LA
EVOLUCIÓN DE LA INFRAESTRUCTURA
Se han dado desarrollos en el
procesamiento de computadoras, y esto ha aumentado en gran manera el poder del cómputo,
de ahí toda la evolución que han tenidos las computadoras y a pesar de que la inversión
es grande, a largo plazo los costos disminuyen también en gran cantidad. Los
desarrollos más importantes son: La ley
de Moore y el poder de los microprocesadores Gordon Moore es un director de
los Laboratorios de investigación y desarrollo de Fairchild Semiconductor, fue
uno de los primeros que fabrico circuitos integrados, escribió en la revista
Electronics que desde la introducción del primer chip microprocesador en 1959,
el número de componentes en un chip con los menores costos de fabricación por
componente se había duplicado cada año, y esto fue precisamente lo que se
convirtió en la base de la ley de Moore. Después, redujo la tasa de crecimiento
al doble cada dos años. Ahora existen al
menos tres variaciones de ella, cabe destacar que ninguna fue proyectada por
Moore. Un aspecto importante y llamativo
es que los transistores de la actualidad ya no deben tener comparación con el
tamaño de un cabello humano, sino con el de un virus ya que por medio del uso
de la nanotecnología, los fabricantes de chips pueden reducir el tamaño de los
transistores hasta la anchura de varios átomos.
Ley del almacenamiento digital masivo, esta ley es un segundo
impulsor de tecnología de la infraestructura de TI, la cantidad de información
digital se duplica cada año. Por fortuna, el costo de almacenar información
digital se está reduciendo a una tasa exponencial del 100 por ciento cada año. La ley de Metcalfe y la economía de red
se suman a este conjunto de leyes, Robert Metcalfe quien fue el inventor de la
tecnología de red de área local Ethernet. La demanda de tecnología de la
información funciona con base en el valor social y comercial de las redes
digitales, que multiplican con rapidez los enlaces actuales y potenciales entre
los miembros de la red.
Reducción en los costos de las
comunicaciones e Internet, se menciona debido a que también fue un factor
que impulso la tecnología de la infraestructura de TI y que a su vez la
transformo consiste en la rápida reducción en los costos
de la comunicación y el crecimiento exponencial en el tamaño de Internet. A medida
que disminuyen los costos de comunicación y llegan a una cifra muy pequeña que
se acerca a 0, por supuesto aumenta el uso de las herramientas de
comunicaciones y computación.
Estándares y efectos de la red
Los estándares de tecnología
desencadenan poderosas economías de escala y provocan reducciones en los precios,
a medida que los fabricantes se enfocan en producir los productos con base en
un solo estándar. Sin estas economías de escala, la computación de cualquier
tipo sería mucho más costosa de lo actual.
COMPONENTES DE LA INFRAESTRUCTURA
En la actualidad, la infraestructura de TI
está compuesta de siete componentes principales. La figura 5-9 ilustra estos
componentes y los principales distribuidores dentro de cada categoría. Estos
son inversiones que se deben coordinar entre sí para proporcionarle a la empresa una infraestructura adecuada. Estos
7 componentes son: plataformas de hardware de computadora, plataformas de
sistemas operativos, aplicaciones de software empresariales,
redes/telecomunicaciones, consultores e integradores de sistemas, gestión y
almacenamiento y plataformas de Internet. En cuanto a las plataformas de hardware de computadora, el mercado para el hardware
de computadora se enfoca cada vez más en las principales empresas como IBM, HP,
Dell y Sun Microsystems (adquirida por Oracle), y en tres productores de chips:
Intel, AMD e IBM. La industria se decidió en forma colectiva por Intel como el
procesador estándar, aunque hay importantes excepciones en el mercado de
servidores para las máquinas Unix y Linux, que podrían usar procesadores Sun o
IBM Unix. Las mainframes no han desaparecido, sino que más bien se ha
incrementado su mercado de manera estable durante la última década, aunque el
número de proveedores se redujo a uno que es IBM. Además, este proveedor readaptó sus
sistemas mainframe para poder utilizarlos como servidores gigantes en redes
empresariales masivas y sitios Web corporativos. En cuanto a las plataformas de sistemas operativos Microsoft
Windows Server es capaz de proveer un sistema operativo y servicios de red a
nivel empresarial, y llama la atención de las organizaciones que buscan
infraestructuras de TI basadas en Windows (IDC, 2010). Unix y Linux son
escalables, confiables y mucho menos costosos que los sistemas operativos de
mainframe. También se pueden ejecutar en muchos tipos distintos de
procesadores. Los principales proveedores de sistemas operativos Unix son IBM,
HP y Sun, cada uno con versiones ligeramente distintas e incompatibles en
ciertos aspectos. Las formas de sistema operativo se utilizan para administrar
los recursos y actividades de la computadora. El sistema Chrome OS de Google
provee un sistema operativo ligero para la computación en la nube mediante el
uso de netbooks, Microsoft introdujo el sistema operativo Windows Azure para
sus servicios y plataforma en la nube. Android es un sistema operativo móvil
desarrollado por Android, estos son algunos ejemplos. El software de sistema
operativo cliente convencional está diseñado con base en el ratón y teclado,
pero cada vez se vuelve más natural e intuitivo gracias al uso de la tecnología
táctil. Como mencione anteriormente otro de los componentes son las aplicaciones
de software empresariales. Los proveedores más importantes de software de
aplicaciones empresariales son SAP y Oracle.En esta categoría se encuentra el software middleware que suministran los
distribuidores tales como BEA, para alcanzar una integración a nivel
empresarial a través de la vinculación de los sistemas de aplicaciones que ya
existen en la empresa. Continnnuo con otro componente que es la administración y
almacenamiento de datos Organizar y administrar la información de la empresa
para poder acceder a ella y utilizarla de manera adecuada, es una tarea del
software de gestión de bases de datos empresariales , debido a que la cantidad
de nueva información incrementa de
manera extraordinaria en el mundo es que el mercado para los dispositivos de
almacenamiento de datos digitales ha estado creciendo a más del 15 por ciento
anual durante los últimos cinco años, las empresas grandes están requiriendo las tecnologías de almacenamiento basadas en
red. Las redes de área de almacenamiento (SAN) conectan varios dispositivos en
una red separada de alta velocidad, dedicada al almacenamiento. La SAN crea una
gran reserva central de almacenamiento disponible para que varios servidores
accedan a ella y la compartan. Otro de los componentes que se suman a estos 7
son las plataformas de
redes/telecomunicaciones. Los
proveedores de hardware de red más importantes son Cisco, Alcatel-Lucent,
Nortel y Juniper Networks. Por lo general, las compañías de servicios de
telecomunicaciones/telefónicos que ofrecen conectividad de voz y datos, redes
de área amplia, servicios inalámbricos y acceso a Internet son las que proveen
las plataformas de telecomunicaciones. Pero también las plataformas de Internet son componentes que deben estar
relacionadas con la infraestructura de redes general de la empresa, además de
sus plataformas de hardware y software, se realizan gastos de hardware,
software y servicios administrativos para dar soporte al sitio Web de una
empresa, que involucra servicios de hospedaje Web, enrutadores y cableado o
equipo inalámbrico. Los servicios de consultoría
e integración de sistemas es otro componente. Si una organización quiere
implementar una nueva infraestructura se necesita que realice cambios
considerables en los procesos y procedimientos de negocios, capacitación y
educación, e integración de software, la integración de software es tener la
seguridad de que la nueva infraestructura funcione con los sistemas anteriores
de la empresa, conocidos como sistemas heredados, y también es asegurar que los
nuevos elementos de la infraestructura puedan trabajar en conjunto. Por lo
general los sistemas heredados son sistemas de procesamiento de transacciones
antiguos, creados para computadoras mainframe que se siguen utilizando para
evitar el alto costo de reemplazarlos o rediseñarlos. También forma parte de
estos componentes la plataforma digital móvil
emergente la nueva plataforma móvil también incluye pequeñas subnotebooks
ligeras y de bajo costo conocidas como netbooks, optimizadas para la
comunicación inalámbrica y el acceso a Internet, con funciones de cómputo
básicas tales como procesamiento de palabras; computadoras tipo tableta como el
iPad, y lectores digitales de libros electrónicos como el Kindle de Amazon, con
ciertas capacidades de acceso a Web. Y por último está el componente de computación
en malla que es el proceso de conectar computadoras separadas por límites
geográficos en una sola red para crear una supercomputadora virtual, al
combinar el poder computacional de todas las computadoras en la malla. De aquí
sale un concepto llamado virtualización que
es el proceso de presentar un conjunto de recursos de cómputo de manera que se
pueda acceder a todos ellos en formas que no estén restringidas por la
configuración física o la ubicación geográfica. La virtualización permite a un
solo recurso físico (como un servidor o un dispositivo de almacenamiento)
aparecer ante el usuario como varios recursos lógicos, también permite que
varios recursos físicos (como dispositivos de almacenamiento o servidores)
aparezcan como un solo recurso lógico, como sería el caso con las redes de área
de almacenamiento o la computación en malla.
COMPUTACIÓN EN LA NUBE
La computación en la nube, es en
donde las empresas y los individuos obtienen procesamiento computacional,
almacenamiento, software y otros servicios como una reserva de recursos
virtualizados a través de una red, principalmente Internet. Estos recursos se
ponen a disposición de los usuarios con base en sus necesidades, sin importar
su ubicación física o la de los mismos usuarios. El Instituto nacional
estadounidense de estándares y tecnología (NIST) define la computación en la
nube como algo que contiene las siguientes características esenciales: autoservicio
bajo demanda, acceso ubicuo a la red, agrupamiento de recursos independiente de
la ubicación, elasticidad rápida, servicio medido, infraestructura en la nube
como un servicio, plataforma en la nube como un servicio y Software en la nube
como un servicio. Una nube privada es una red propietaria o un centro de datos
propietario que enlaza servidores, almacenamiento, redes, datos y aplicaciones
como un conjunto de servicios virtualizados que los usuarios comparten dentro
de una compañía. Al igual que las nubes públicas, las nubes privadas pueden
asignar almacenamiento, poder de cómputo y otros recursos de manera
transparente para proveer recursos de cómputo según sean necesarios. Es
probable que las instituciones financieras y los proveedores de servicios
médicos graviten hacia las nubes, ya que estas organizaciones manejan muchos
datos financieros y personales delicados. En el capítulo 8 analizaremos los
aspectos de seguridad de las nubes. Como las organizaciones que utilizan
computación en la nube por lo general no son propietarias de la
infraestructura, no tienen que realizar grandes inversiones en su propio
hardware y software. En cambio, compran sus servicios de cómputo a los
proveedores remotos y pagan sólo por la cantidad de poder de cómputo que
utilizan en realidad (computación utilitaria), o se les cobra una suscripción
mensual o anual.
COMPUTACIÓN VERDE
Al frenar la proliferación de
hardware y el consumo de energía, la virtualización se ha convertido en una de
las principales tecnologías para promover la computación verde. La computación
verde, o TI verde, se refiere a las prácticas y tecnologías para diseñar,
fabricar, usar y disponer de computadoras, servidores y dispositivos asociados,
como monitores, impresoras, dispositivos de almacenamiento, sistemas de redes y
comunicaciones para minimizar el impacto sobre el entorno. Reducir el consumo
de poder de cómputo ha sido una prioridad “verde” muy alta.
COMPUTACIÓN AUTONÓMICA La computación autonómica es un esfuerzo a
nivel industrial por desarrollar sistemas que se puedan configurar, optimizar,
ajustar, arreglarse por sí solos cuando se descompongan y protegerse de los
intrusos externos y de la autodestrucción. PROCESADORES
DE ALTO RENDIMIENTO Y AHORRO DE ENERGÍA esta es otra forma de reducir los
requerimientos de energía y la expansión descontrolada del hardware, por medio del
uso de procesadores más eficientes y ahorradores de energía. Esta tecnología
permite que dos o más motores de procesamiento con requerimientos de energía y
disipación de calor reducidos realicen tareas con más rapidez que un chip que
requiere de muchos recursos y que sólo contiene un núcleo de procesamiento.
TENDENCIAS DE LAS PLATAFORMAS DE SOFTWARE CONTEMPORÁNEAS
En cuanto a este gran tema
existen cuatro subtemas importantes en la evolución de las plataformas de
software contemporáneas que son: Linux y
el software de código fuente abierto: El software de código abierto es
software producido por una comunidad de varios cientos de miles de
programadores en todo el mundo, es gratis y los usuarios pueden modificarlo.
Las obras derivadas del trabajo original también deben ser gratuitas, además de
que el usuario puede redistribuir el software sin necesidad de licencias
adicionales, el software de código abierto no está restringido a ningún sistema
operativo o tecnología de hardware específico, aunque actualmente la mayor parte del software de código abierto
se basa en un sistema operativo Linux o Unix. Java y Ajax: Java es un lenguaje de programación orientado a
objetos independiente del sistema operativo e independiente del procesador, que
se ha convertido en el principal entorno interactivo para Web, la plataforma de
Java ha migrado a los teléfonos celulares, teléfonos inteligentes, automóviles,
reproductores de música, máquinas de juegos y por último, a los decodificadores
en los sistemas de televisión por cable para ofrecer contenido interactivo y
servicios de pago por evento. El software de Java está diseñado para ejecutarse
en cualquier computadora o dispositivo de cómputo, sin importar el microprocesador
o sistema operativo específico que utilice el dispositivo. A nivel empresarial,
Java se utiliza para aplicaciones de comercio electrónico y negocios
electrónicos más complejos que requieren comunicación con los sistemas de
procesamiento de transacciones del back-end de una organización. Ajax permite
que un cliente y un servidor intercambien pequeñas piezas de datos tras
bambalinas, de modo que no haya que volver a cargar toda una página Web cada
vez que el usuario solicite una modificación. Ajax usa programas de JavaScript
que se descargan en su equipo cliente para mantener una conversación casi
continua con el servidor que utiliza, con lo cual la experiencia del usuario es
más fluida y uniforme.
Los
servicios web y la arquitectura orientada a servicios Los servicios Web se
refieren a un conjunto de componentes de software con acoplamiento débil, que
intercambian información entre sí mediante el uso de estándares y lenguajes de
comunicación Web universales. Pueden intercambiar información entre dos
sistemas distintos, sin importar los sistemas operativos o lenguajes de
programación en los que se basen esos sistemas. Se pueden utilizar para crear
aplicaciones basadas en Web con estándares abiertos que vinculen sistemas de
dos organizaciones distintas, y también se pueden usar para crear aplicaciones
que vinculen sistemas dispares dentro de una sola compañía.
INVERSIONES DE INFRAESTRUCTURA
INTELIGENTES
La infraestructura de TI es una importante
inversión para la empresa. Si se invierte demasiado en infraestructura, no se
aprovecha y constituye un rezago en el desempeño financiero de la empresa. Si
se invierte poco, no se podrán ofrecer los servicios de negocios importantes y
los competidores de la empresa (que invirtieron la cantidad correcta) superaran
a la empresa con la inversión insuficiente. Una empresa debe decidir si debe comprar y mantener sus propios
componentes de infraestructura de TI, o si es mejor que los rente de
proveedores externos, entre ellos los que ofrecen servicios en la nube. A la
decisión entre comprar sus propios activos de Ti o rentarlos a proveedores
externos se le conoce por lo general como la decisión entre rentar y comprar.
Tal vez la computación en la nube sea una manera de bajo costo para aumentar la
escalabilidad y flexibilidad, pero las empresas deberían evaluar esta opción
con cuidado en vista de los requerimientos de seguridad, además del impacto
sobre los procesos de negocios y los flujos de trabajo. En ciertos casos, el
costo de rentar software resulta ser mayor que el de comprar y mantener una
aplicación en forma interna. El costo actual de poseer recursos de tecnología
incluye el costo original de adquirir e instalar el hardware y software, así
como los costos administrativos continuos para las actualizaciones de hardware
y software, mantenimiento, soporte técnico, capacitación e incluso los costos
de servicios públicos y bienes raíces para operar y alojar la tecnología.
Podemos usar el modelo de Costo Total de Propiedad (TCO) para analizar estos
costos directos e indirectos, para ayudar a las empresas a determinar el costo
actual de las implementaciones de tecnología específicas.
Aquí una presentación en calameo, con el fin de repasar los temas mas relevantes de este capitulo:
Aquí una presentación en calameo, con el fin de repasar los temas mas relevantes de este capitulo:
No hay comentarios:
Publicar un comentario