Instituto Tecnologico de Chilpancingo
Fundamentos de gestión de servicios de TI
“UNIDAD
2”
ALUMNA:
ABRIL MENDEZ AVILES
5.1 INFRAESTRUCTURA DE TI
DEFINICIÓN
DE LA INFRAESTRUCTURA DE TI
La infraestructura de
TI consiste en un conjunto de dispositivos físicos y aplicaciones de software
que se requieren para operar toda la empresa. Sin embargo, la infraestructura
de TI también es un conjunto de servicios a lo largo y ancho de la empresa,
presupuestados por la administración y que abarcan capacidades tanto humanas
como técnicas. Figura 1.1 explica la infraestructura de TI y las capacidades de
negocio.
Figura 1.1
Los servicios
que una empresa es capaz de proveer a sus clientes, proveedores y empleados son
una función directa de su infraestructura de TI. En un plano ideal, esta
infraestructura debería apoyar la estrategia de negocios y sistemas de
información de la empresa. Las nuevas tecnologías de información tienen un
potente impacto en las estrategias de negocios y de TI, así como en los
servicios que se pueden ofrecer a los clientes.
• Plataformas de
cómputo que se utilizan para proporcionar servicios de cómputo que conectan a
empleados, clientes y proveedores dentro de un entorno digital coherente, el
cual incluye grandes mainframes, computadoras de escritorio y portátiles, así
como asistentes digitales personales (PDAs) y dispositivos para Internet.
• Servicios de
telecomunicaciones que proporcionan conectividad de datos, voz y video a
empleados, clientes y proveedores.
• Servicios de
administración de datos que almacenan y manejan datos corporativos y proveen
capacidades para analizar los datos.
• Servicios de
software de aplicaciones que proporcionan capacidades a toda la empresa, como
sistemas de planeación de recursos empresariales, de administración de las
relaciones con el cliente, de administración de la cadena de suministro y de
administración del conocimiento, los cuales son compartidos por todas las
unidades de negocios.
• Servicios de
administración de instalaciones físicas que desarrollan y manejan las
instalaciones físicas requeridas por los servicios de cómputo, de
telecomunicaciones y de administración de datos.
• Servicios de
administración de TI que planean y desarrollan la infraestructura, coordinan
los servicios de TI entre las unidades de negocios, manejan la contabilidad de
los gastos en TI y proporcionan servicios de administración de proyectos.
• Servicios de
estándares de TI que dotan a la empresa y sus unidades de negocios de las
políticas que determinan cuál tecnología de información se utilizará, en qué
momento y de qué manera.
• Servicios de
entrenamiento en TI que proporcionan a los empleados capacitación en el uso de
los sistemas y a los gerentes, capacitación sobre la manera de planificar y
manejar las inversiones en TI.
• Servicios de
investigación y desarrollo de TI que proporcionan a la empresa investigación
sobre proyectos e inversiones de TI potenciales que podrían ayudar a la empresa
a diferenciarse en el mercado.
EVOLUCIÓN DE LA INFRAESTRUCTURA DE TI:
1950-2007
Existen cinco
etapas en la evolución de la infraestructura de TI. En su etapa más temprana,
la infraestructura de TI consistía de máquinas de contabilidad electrónicas
especializadas que eran computadoras con elementos básicos y se utilizaban para
tareas contables. La infraestructura de TI en la era de los mainframes
(1959 a la
fecha) consistía en un mainframe que ejecutaba procesamiento centralizado y
podía estar conectado mediante una red a miles de terminales, y quizá a un tipo
de computación descentralizada y departamentalizada por medio de
minicomputadoras conectadas en red. La era de la computadora personal (1981 a
la fecha) en la infraestructura de TI ha estado dominada por el uso
generalizado de computadoras de escritorio independientes con herramientas de
productividad de oficina. La infraestructura predominante en la era
cliente/servidor (1983 a la fecha) consiste en clientes de escritorio o
portátiles conectados en red a computadoras con servidores más potentes que
manejan la mayor parte de la administración y el procesamiento de los datos. La
era de la computación empresarial en Internet (1992 a la fecha) está definida
por grandes cantidades de PCs enlazadas en redes de área local y por el
creciente uso de estándares y software para enlazar redes y dispositivos
diferentes conectados a una red de área empresarial con la finalidad de que la
información pueda fluir libremente a través de la organización.
IMPULSORES TECNOLÓGICOS DE LA EVOLUCIÓN
DE LA INFRAESTRUCTURA
Los cambios en
la infraestructura de TI que acabamos de describir han sido resultado de los
desarrollos en el procesamiento de las computadoras, los chips de memoria, los
dispositivos de almacenamiento, el hardware y el software de telecomunicaciones
y de conectividad de redes, así como en el diseño del software, que en conjunto
han incrementado exponencialmente la potencia de cómputo al mismo tiempo que
han reducido también exponencialmente los costos. Demos un vistazo a los
desarrollos más importantes.
La ley de Moore y la potencia de micro
procesamiento.
En 1965, Gordon
Moore, director de los Laboratorios de Investigación y Desarrollo de Fairchild
Semiconductor, uno de los primeros fabricantes de circuitos integrados,
escribió en Electronics Magazine que desde la aparición del primer chip
de microprocesador en 1959, se había duplicado cada año la cantidad de
componentes en un chip con los costos de manufactura más bajos por componente
(por lo general, transistores). Esta afirmación se convirtió en el fundamento
de la ley de Moore.
Posteriormente,
esta ley sería interpretada de diversas maneras. Existen al menos tres
variaciones de la ley de Moore, ninguna de las cuales fue enunciada por Moore:
(1) la potencia de los microprocesadores se duplica cada 18 meses (Gates,
1997); (2) la potencia de cómputo se duplica cada 18 meses, y (3) el precio de
la computación se reduce a la mitad cada 18 meses.
La ley del almacenamiento digital masivo
Un segundo
impulsor tecnológico del cambio en la infraestructura de TI es la ley del
almacenamiento digital masivo. En el mundo se producen alrededor de 5 exabytes
de información exclusiva cada año (un exabyte equivale a mil millones de gigabytes
o 1018 bytes). La cantidad de información digital se duplica más o menos cada
año (Lyman y Varian, 2003). Casi la totalidad de este crecimiento se da en el
almacenamiento magnético de datos digitales, en tanto que los documentos
impresos representan únicamente el 0.003 por ciento del crecimiento anual.
Las leyes de
Moore y del almacenamiento masivo nos ayudan a entender por qué es tan fácil
acceder ahora a los recursos de cómputo.
Ley de Metcalfe y la economía de redes
Robert Metcalfe
—inventor de la tecnología para las LAN Ethernet— afirmó en1970 que el valor o
potencia de una red crece exponencialmente como una función de la cantidad de
miembros de la red. Metcalfe y otros señalan los retornos crecientes a
escala que reciben los miembros de la red conforme más y más gente se une a
la red. A medida que los miembros de una red aumentan linealmente, el valor
total del sistema aumenta exponencialmente y continúa creciendo siempre
conforme se incrementan los miembros. La demanda de tecnología de información
ha sido impulsada por el valor social y de negocios de las redes digitales, las
cuales multiplican rápidamente el número de enlaces reales y potenciales entre
los miembros de la red.
Reducción de los costos de las
comunicaciones y crecimiento de Internet
Un cuarto
impulsor tecnológico que transforma la infraestructura de TI es la rápida
reducción en los costos de la comunicación y el crecimiento exponencial del
tamaño de Internet. Una de las razones del crecimiento en la población de
Internet es la rápida reducción de los costos de la conexión a Internet y de
las comunicaciones en general. El costo por kilobit del acceso a Internet ha
disminuido exponencialmente desde 1995. En la actualidad, la Línea Digital de
Suscriptor (DSL) y los módems de cable transmiten un kilobit de comunicación
por un precio al detalle menor a 2 centavos de dólar.
Estándares y sus efectos en las redes
La
infraestructura empresarial y la computación por Internet actualmente no serían
posibles —tanto ahora como a futuro— sin acuerdos entre fabricantes sobre estándares
tecnológicos y la aceptación generalizada de éstos por parte de los
consumidores. Los estándares tecnológicos son especificaciones que establecen
la compatibilidad de productos y su capacidad para comunicarse en una red
(Stango, 2004). Los estándares tecnológicos propician el desarrollo de
poderosas economías de escala y dan como resultado disminuciones de precios a
medida que los fabricantes se enfocan en la elaboración de productos apegados a
un solo estándar. Sin estas economías de escala, la computación de cualquier
tipo sería mucho más costosa de lo que actualmente es.
5.2
COMPONENTES DE LA INFRAESTRUCTURA
La
infraestructura de TI está conformada por siete componentes principales.
PLATAFORMAS DE SOFTWARE DE CÓMPUTO:
En el nivel del
cliente, 95 por ciento de las PCs y 45 por ciento de los dispositivos
portátiles utilizan alguno de los sistemas operativos de Microsoft Windows. En
contraste, en el mercado de servidores, más de 85 por ciento de los servidores
corporativos de Estados Unidos utilizan alguno de los sistemas operativos Unix
o Linux. Estos ultimos constituyen la columna vertebral de la
infraestructura de muchas corporaciones de todo el mundo porque son escalables,
confiables y mucho más económicos que los sistemas operativos para mainframes.
Los principales proveedores de los sistemas operativos Unix son IBM, HP y Sun,
Aunque Windows continúa dominando el mercado de las computadoras cliente, muchas
corporaciones han comenzado a explorar Linux como un sistema operativo de escritorio
de bajo costo ofrecido por distribuidores comerciales como Red Hat. El software
de código abierto en esencia se trata de software creado y actualizado por una
comunidad mundial de programadores y está disponible de manera gratuita.
Aplicaciones de software empresarial:
Aparte del
software de aplicaciones utilizado por unidades de negocios o grupos
específicos, las empresas de Estados Unidos gastaron durante 2005 alrededor de
297,000 millones de dólares en software. Los proveedores más importantes de
software de aplicaciones empresariales son SAP y Oracle. En esta categoría
también se incluye el software middleware proporcionado por fabricantes como
BEA, el cual se utiliza para lograr la integración de los sistemas de aplicaciones
existentes en toda la empresa. Microsoft está tratando de llegar a los extremos
inferiores de este mercado enfocándose en las empresas pequeñas y en las de
tamaño mediano. En general, la mayoría de las grandes empresas de Fortune 500
han implementado aplicaciones empresariales y han establecido relaciones de
largo plazo con sus proveedores.
ADMINISTRACIÓN Y ALMACENAMIENTO DE DATOS
Los proveedores
líderes de software de bases de datos son IBM (DB2), Oracle, Microsoft (SQL
Server) y Sybase (Adaptive Server Enterprise). Un nuevo participante en
crecimiento es MySQL, un producto de base de datos relacional con código
abierto de Linux, disponible de manera gratuita en Internet y cada vez más
soportado por HP y otros fabricantes. Las redes de área de almacenamiento
(SANs) conectan a múltiples dispositivos de almacenamiento en una
red de alta velocidad independiente dedicada a tareas de almacenamiento. La
SAN crea un enorme depósito central de almacenamiento al cual pueden acceder
rápidamente y compartirlo múltiples servidores.
PLATAFORMAS DE CONECTIVIDAD DE REDES Y
TELECOMUNICACIONES
Windows Server
se utiliza de manera predominante como el sistema operativo para redes de área
local, seguido por Novell, Linux y Unix. Las grandes redes de área empresarial
utilizan principalmente alguna variante de Unix. Casi todas las redes de área
local, al igual que las redes empresariales de área amplia, utilizan como
estándar el conjunto de protocolos TCP/IP. Los proveedores líderes de hardware
de conectividad de redes son Cisco, Lucent, Nortel y Juniper Networks. Entre
los proveedores líderes de servicios de telecomunicaciones están MCI, AT&T
y compañías telefónicas regionales como Verizon.
PLATAFORMAS DE INTERNET
Las principales
herramientas de desarrollo de aplicaciones y conjuntos de programas de software
para Web son proporcionadas por Microsoft (FrontPage y la familia de
herramientas de desarrollo Microsoft .NET utilizada para crear sitios Web que
emplean Active Server Pages para el contenido dinámico), la línea de herramientas
de administración de Internet WebSphere de IBM, Sun (el Java de Sun es la
herramienta más ampliamente utilizada para el desarrollo de aplicaciones Web
interactivas tanto en el servidor como en el cliente) y una gran cantidad de
desarrolladores de software independientes, como Macromedia/Adobe (Flash),
software de medios (Real Media) y herramientas de texto (Adobe Acrobat).
SERVICIOS DE CONSULTORÍA E INTEGRACIÓN
DE SISTEMAS
La
implementación de nueva infraestructura requiere cambios significativos en los
procesos y procedimientos de negocios, capacitación y entrenamiento, así como
integración del software. La integración de software significa asegurar que la
nueva infraestructura funcione con los antiguos sistemas heredados de la
empresa y garantizar que los nuevos elementos de la infraestructura funcionen
entre sí. Por lo general, los sistemas heredados son antiguos
sistemas de procesamiento de transacciones creados para computadores mainframe
que continúan utilizándose para evitar el alto costo de reemplazarlos o
rediseñarlos.
5.3 TENDENCIAS
DE LAS PLATAFORMAS DE HARDWARE Y TECNOLOGÍAS EMERGENTES
Las empresas
enfrentan otros retos numerosos. Necesitan integrar la información almacenada
en diferentes aplicaciones de diferentes plataformas (teléfono, sistemas
heredados, intranet, sitios de Internet, computadoras de escritorio,
dispositivos móviles).
Las empresas
también requieren construir infraestructuras flexibles que puedan resistir
grandes variaciones en las cargas máximas de energía y ataques constantes de
hackers y virus, tratando al mismo tiempo de conservar la continuidad de la
energía eléctrica.
LA INTEGRACIÓN DE LAS PLATAFORMAS DE
CÓMPUTO Y TELECOMUNICACIONES
Los niveles de
convergencia: En el nivel del cliente, los dispositivos de comunicaciones como
los teléfonos celulares están asumiendo las funciones de computadoras de mano,
en tanto que éstas están haciendo las funciones de teléfonos celulares. Al
nivel del servidor y la red, el creciente éxito de los sistemas telefónicos por
Internet (ahora el tipo de servicio telefónico de más rápido crecimiento)
demuestra cómo las plataformas de telecomunicaciones y de cómputo,
históricamente separadas, están convergiendo hacia una sola red: Internet.
COMPUTACIÓN DISTRIBUIDA
La computación
distribuida implica conectar en una sola red computadoras que se encuentran
en ubicaciones remotas para crear una supercomputadora virtual al combinar la
potencia de cómputo de todas las computadoras de la red. La computación
distribuida requiere programas de software para controlar y asignar recursos en
la red, como el software de código abierto proporcionado por Globus
Alliance
(www.globus.org) o por proveedores privados. El software del cliente se
comunica con una aplicación de software del servidor. El software del servidor
divide los datos y el código de las aplicaciones en fragmentos que a
continuación se distribuyen a las máquinas de la red. Las máquinas cliente
pueden ejecutar sus tareas tradicionales y correr al mismo tiempo las
aplicaciones de la red en segundo plano. En la imagen 2.1 se muestra un ejemplo
de computación distribuida.
Imagen
2.1
COMPUTACIÓN BAJO DEMANDA (COMPUTACIÓN
TIPO SERVICIO PÚBLICO)
La computación
bajo demanda se refiere a las empresas que satisfacen el exceso de demanda
de potencia de cómputo a través de centros remotos de procesamiento de datos a
gran escala. De esta manera, las empresas pueden reducir sus inversiones en
infraestructura de TI e invertir únicamente lo necesario para manejar las
cargas promedio de procesamiento y pagar solamente por la potencia de cómputo
adicional que demande el mercado. Otro término para la computación bajo demanda
es computación tipo servicio público, el cual sugiere que las empresas
compran capacidad de cómputo a compañías de servicios de cómputo centrales y
pagan solamente por la cantidad de capacidad de cómputo que utilizan, de la
misma manera que lo harían por la electricidad. IBM, HP, Oracle y Sun
Microsystems ofrecen servicios de computación bajo demanda.
COMPUTACIÓN AUTÓNOMA Y COMPUTACIÓN DE VANGUARDIA
La computación
autónoma es una iniciativa de toda la industria para desarrollar sistemas
que puedan autoconfigurarse, optimizarse y afinarse a sí mismos,
autorrepararse cuando se descompongan, y autoprotegerse de intrusos
externos y de la autodestrucción.
La computación
de vanguardia es un esquema multicapa, de balanceo de carga para
aplicaciones basadas en la Web en el cual partes significativas del contenido,
la lógica y el procesamiento del sitio Web son ejecutados por servidores más
pequeños y más económicos, localizados cerca del usuario con la finalidad de
incrementar el tiempo de respuesta y la resistencia y, a la vez, reducir los
costos de la tecnología. En este sentido, la computación de vanguardia, al
igual que la computación distribuida y la computación bajo demanda, es una
técnica que utiliza Internet para compartir la carga de trabajo de una empresa
a través de muchas computadoras localizadas en puntos remotos de la red. En la figura 1.2 se muestra como la computacion va a
la vanguardia.
figura 1.2
VIRTUALIZACIÓN Y PROCESADORES
MULTINÚCLEO
La virtualización
es el proceso de presentar un conjunto de recursos de cómputo (como la
potencia de procesamiento o el almacenamiento de datos) de tal manera que se
pueda acceder a todos sin ningún tipo de restricción por su configuración
física o su ubicación geográfica. La virtualización de servidores permite a las
empresas ejecutar más de un sistema operativo al mismo tiempo en una sola
máquina. El software de virtualización de servidores se ejecuta entre el
sistema operativo y el hardware, ocultando a los usuarios los recursos de los
servidores, como la cantidad e identidad de los servidores físicos, los
procesadores y los sistemas operativos. La virtualización también facilita
centralizar la administración del hardware.
Un procesador
multinúcleo es un circuito integrado que contiene dos o más procesadores.
En el pasado, los fabricantes de chips incrementaron la velocidad de los
procesadores al aumentar su frecuencia, desde unos cuantos megahertz hasta los
chips actuales que funcionan a frecuencias de gigahertz. Los procesadores de
doble núcleo combinan dos o más procesadores más lentos en un solo chip. Esta
tecnología permite que dos motores de procesamiento con menores requerimientos
de energía y de disipación de calor realicen tareas más rápido que un chip
devorador de recursos con un solo núcleo de procesamiento.
5.4TENDENCIAS
DE LAS PLATAFORMAS DE SOFTWARE Y TECNOLOGÍAS EMERGENTES
Existen seis
temas principales en la evolución de las plataformas de software
contemporáneas:
• Linux y el
software de código abierto.
• Java.
• El software
empresarial.
• Los servicios
Web y la arquitectura orientada a servicios.
• Los mashups y
las aplicaciones de software basadas en la Web.
• La
subcontratación de software.
EL SURGIMIENTO DE LINUX Y EL SOFTWARE DE
CÓDIGO ABIERTO
El software de
código abierto es software producido por una comunidad de cientos de miles de
programadores de todo el mundo. Según la principal asociación de profesionales
del código abierto, OpenSource.org, el software de código abierto es gratuito y
puede ser modificado por los usuarios. Los trabajos derivados del código
original también deben ser gratuitos, y el software puede ser redistribuido por
el usuario sin necesidad de licencias adicionales. Por definición, el software
de código abierto no se limita a ningún sistema operativo específico ni
tecnología de hardware, aunque la mayor parte del software de código abierto se
basa actualmente en los sistemas operativos Linux o Unix.
Linux fue creado
por el programador finlandés Linus Torvalds y colocado por primera vez en
Internet en agosto de 1991. En la actualidad, Linux es el sistema operativo
para clientes y servidores de más rápido crecimiento en el mundo. Linux es el
sistema operativo de servidores de LAN de más rápido crecimiento, con una
participación de mercado actual de 23 por ciento, muy superior al 1 por ciento
que tenía en 1998. IBM, HP, Intel, Dell y Sun han hecho de Linux una parte
central de sus ofertas a las corporaciones. Más de dos docenas de países de
Asia, Europa y América Latina.
El surgimiento
del software de código abierto, particularmente Linux y las aplicaciones que
soporta, tiene profundas implicaciones para las plataformas de software
corporativas: reducción de costos, confiabilidad y resistencia, e integración,
puesto que Linux funciona en todas las plataformas de software principales,
desde mainframes hasta servidores y clientes.
JAVA ESTÁ EN TODAS PARTES
Java es un lenguaje
de programación orientado a objetos independiente del sistema operativo y del
procesador que se ha convertido en el entorno de programación interactivo líder
para la Web. Si un objeto se desplaza en la Web o recopila información del
usuario, es probable que un applet de Java esté detrás de él. Java fue creado
en 1992 por James Goslin y el Green Team de Sun Microsystems como un entorno de
programación para soportar la transmisión de contenido interactivode televisión
por cable. El software de Java está diseñado para ejecutarse en cualquier
computadora o dispositivo de cómputo, independientemente del microprocesador
específico o el sistema operativo que utilice el dispositivo. Un navegador
Web es una herramienta de software fácil de usar, con una interfaz gráfica
de usuario que despliega páginas Web y permite el acceso a la Web y a otros
recursos de Internet. Algunos ejemplos de navegadores son Microsoft Internet
Explorer, Mozilla Firefox y Netscape Navigator.
SOFTWARE PARA LA INTEGRACIÓN EMPRESARIAL
La integración
de las aplicaciones de software heredado existentes con las nuevas aplicaciones
basadas en la Web para conformar un solo sistema coherente que se pueda manejar
de manera racional. Parte de la integración de las aplicaciones heredadas se
puede conseguir por medio de software especial denominado middleware, con el
cual se crea una interfaz o puente entre dos sistemas distintos. El middleware es software que conecta dos
aplicaciones independientes para que puedan comunicarse entre sí e intercambiar
datos.
Las empresas
podrían optar por escribir su propio software para conectar una aplicación con
otra, pero cada vez compran más paquetes de software de integración de
aplicaciones empresariales (EAI) para conectar aplicaciones
independientes o grupos de aplicaciones. Este software permite que muchos
sistemas intercambien datos por medio de un solo centro de software en lugar de
construir incontables interfaces de software personalizadas para enlazar cada
sistema.
Ser vicios Web y arquitectura orientada
a ser vicios (SOA)
Los servicios Web
buscan ofrecer una alternativa estandarizada para lidiar con problemas de
integración como los anteriores por medio de la creación de un entorno de
comunicaciones independiente del proveedor.
Los servicios Web se refieren a un
conjunto de componentes de software ligeramente acoplados que intercambian
información entre sí por medio de estándares y lenguajes de comunicación para
la Web.
La tecnología
que sustenta los servicios Web es XML,
que significa Lenguaje de Marcación
Extensible. Este lenguaje fue desarrollado en 1996 por el World Wide Web
Consortium (W3C, el organismo internacional que supervisa el desarrollo de la
Web) como un lenguaje de marcación más potente y flexible para páginas Web que
el Lenguaje de Marcación de Hipertexto. El Lenguaje de Marcación de Hipertexto (HTML) es un lenguaje de descripción de páginas para especificar
la manera en que el texto, las imágenes, el video y el sonido se colocan en el
documento de una página Web. HTML se limita a describir la manera en que se
deben presentar los datos en forma de páginas Web, XML puede ejecutar la
presentación, comunicación y almacenamiento de los datos.
Los servicios
Web se comunican por medio de mensajes XML sobre protocolos Web estándar. SOAP, que significa Protocolo Simple de Acceso a Objetos,
es un conjunto de reglas para estructurar mensajes que permite a las
aplicaciones pasarse datos e instrucciones entre sí. WDSL significa Lenguaje de
Descripción de Servicios Web;
es un marco de trabajo común para describir las tareas realizadas por un
servicio Web y los comandos y datos que aceptará y que podrán ser utilizados
por otras aplicaciones. UDDI,
que significa Descripción,
Descubrimiento e Integración
Universal,
permite que un servicio Web se enliste en un directorio de servicios Web con el
fin de que pueda localizarse fácilmente.
El conjunto de
servicios Web que se utiliza para construir los sistemas de software de una
empresa constituye lo que se conoce como arquitectura orientada a servicios.
Una arquitectura orientada a servicios
(SOA) es un conjunto de servicios independientes que se comunican entre
sí para crear una aplicación de software funcional.
AJAX, MASHUPS, WEB 2.0 Y APLICACIONES DE
SOFTWARE BASADAS EN LA WEB
Ajax es
una nueva técnica de software que evita todas estas inconveniencias y hace más
transparente la experiencia del usuario. Ajax (JavaScript y XML asíncronos) es
una técnica para permitir que su cliente y el servidor con el que está
trabajando sostengan una conversación en segundo plano, y que la información
que usted introduzca se transfiera al servidor al instante sin que usted lo
note.
En menor medida,
los empresarios emprendedores están creando nuevas aplicaciones y servicios de
software con base en la combinación de diferentes aplicaciones de software en
línea. Denominadas mashups
(aplicaciones Web híbridas), estas nuevas aplicaciones combinadas
dependen de redes de datos de alta velocidad, estándares de comunicaciones
universales y código abierto. El propósito es tomar diferentes recursos y
producir un nuevo trabajo que sea “mayor que” la suma de sus partes.
Parte de un
movimiento llamado Web 2.0, y al igual que los mashups musicales, los mashups
de la Web combinan las capacidades de dos o más aplicaciones en línea para
crear un tipo de híbrido que proporciona más valor al cliente que los recursos
originales por sí solos.
SUBCONTRATACIÓN DE SOFTWARE
En la
actualidad, la mayoría de las empresas continúan operando sus sistemas
heredados, los cuales aún satisfacen una necesidad de negocios y cuyo reemplazo
sería extremadamente costoso. Pero adquirirán de fuentes externas la mayoría de
sus nuevas aplicaciones de software.
Cambio de las fuentes de software
En el pasado, la
mayor parte de este software era desarrollado dentro de las empresas por
equipos de programadores. A pesar de que las empresas aún conservan grandes
grupos de personas de TI, ya no se enfocan exclusivamente en la creación del
software. En 2006 las empresas encargaron cerca de la tercera parte del
desarrollo de software a desarrolladores externos, incluyendo empresas de
software empresarial que les venderían soluciones comerciales personalizadas a
sus necesidades.
Paquetes de software y software
empresarial
Un paquete de
software es un conjunto de programas de software escritos con anticipación,
disponible comercialmente, que libera a una empresa de la necesidad de escribir
sus propios programas de software para funciones específicas, como el
procesamiento de la nómina o el manejo de pedidos.
Los proveedores
de software de aplicaciones empresariales como SAP y Oracle- PeopleSoft han
desarrollado potentes paquetes de software que pueden apoyar los procesos de
negocios principales de cualquier empresa del mundo, desde almacenamiento de
datos, administración de las relaciones con el cliente, administración de la
cadena de suministro y finanzas, hasta recursos humanos
Proveedores de ser vicios de
aplicaciones
Una segunda
fuente externa de software la constituyen los proveedores de servicios de
aplicaciones en línea. Un proveedor de servicios de aplicaciones (ASP) es
una empresa que distribuye y administra aplicaciones y servicios de cómputo a
múltiples usuarios, desde centros de cómputo remotos, a través de Internet o de
una red privada. En lugar de comprar e instalar programas de software, las
empresas suscriptoras pueden rentar las mismas funciones a estos servicios. Los
usuarios pagan por el uso de este software, ya sea a través de una suscripción
o por cada transacción.
La solución del
ASP combina las aplicaciones de software comerciales y todo el hardware relacionado,
el software del sistema, la red y otros servicios de infraestructura que de
otra manera el cliente tendría que comprar, integrar y administrar de manera
independiente.
Subcontratación de software
Una tercera
fuente externa de software es la subcontratación, en la cual una empresa
contrata el desarrollo de software personalizado o el mantenimiento de
programas heredados existentes con empresas externas, las cuales con frecuencia
operan en regiones del mundo donde se pagan salarios bajos. La subcontratación
le dio acceso a la compañía a especialistas en tecnología altamente capacitados
de los cuales no disponía de manera interna.
Merrill
Lynch conecta la tecnología del pasado y la del futuro
CASO
DE ESTUDIO
Merrill Lynch es
un líder mundial en administración financiera y servicios de consultoría, que
da empleo a 50,600 trabajadores de 36 países y territorios. La empresa y sus
subsidiarias proporcionan corretaje, banca
de inversiones, financiamiento, administración del patrimonio, consultoría, administración
de activos, seguros, préstamos y otros productos y servicios relacionados a
clientes privados, institucionales y gubernamentales con activos que ascienden
a 1.6 billones de dólares. Uno de los componentes más importantes de las
operaciones de Merrill Lynch es su infraestructura de tecnología de
información. Esta infraestructura de TI ha tenido un rol principal en las
ganancias de la empresa durante los últimos cinco años. Al igual que muchas
instituciones financieras, Merrill Lynch ha tenido que modernizar su
infraestructura de tecnología con la finalidad de permanecer en la competencia.
Merrill Lynch consideraba como un activo estratégico su sistema mainframe de
IBM, el cual era uno de los más grandes del mundo. Al modernizar su tecnología,
Merrill Lynch tuvo que tomar algunas decisiones en relación con sus
computadoras y aplicaciones heredadas. Las aplicaciones basadas en Internet que
daban a los clientes acceso a sus carteras y herramientas para trabajar con
ellas eran fundamentales para permanecer en la competencia. Pero estas
aplicaciones no utilizaban software basado en mainframes. Al parecer, la
respuesta eran los servicios Web y una arquitectura orientada a servicios
(SOA). Lynch, determinó que a primera vista la compra de una plataforma SOA era
mucho más sencilla que la construcción de una, y podría permitir a la empresa
desplegar sus servicios Web con relativa rapidez. Sin embargo, ninguno de los
proveedores de SOA que Crew investigó ofrecía productos que cumplieran los
requerimientos que Crew estableció para el proyecto. Según una investigación de
los consultores de Gartner Group, volver a capacitar a los programadores de
mainframe de Merrill Lynch podría haber durado hasta un año y costado más de 80
millones de dólares. Para Crew, era evidente que la empresa debía optar por un
enfoque menos convencional: construir una plataforma de desarrollo Web
propietaria desde cero para extender la capacidad de sus sistemas mainframe
heredados. En un principio, Merrill Lynch había intentado evitar estos costos
al copiar los datos almacenados en su mainframe a bases de datos de Oracle,
Sybase o Microsoft SQL Server. En estos formatos, los datos eran compatibles
con las aplicaciones basadas en servidor. Sin embargo, esta técnica no fue
completamente satisfactoria. Con frecuencia, la copia de grandes cantidades de
datos propicia errores como fallas de disco y problemas de espacio. Además,
algunos datos se pueden volver obsoletos inmediatamente después de haber sido
copiados. El conjunto de herramientas de servicios Web de Merrill Lynch se
denominó X4ML, que significa XML for Modernizing Legacy (XML para modernizar
las aplicaciones heredadas). Crew desafió a su equipo a incrementar diez veces
los ahorros de la empresa por concepto de los servicios Web a 20 millones de
dólares.
Video
Inteligencia de negocio – Innovando la empresa
Objetivos:
-
Comprender los conceptos básicos por los
cuales nace Bisiness Intelligence
-
Revisar de forma general algunos elementos
básicos que componen una solución de inteligencia de negocios.
-
Conocer algunas herramientas con las que se
puede aplicar BI sobre la empresa
-
Replantear como la inovacion nos compete a
todos en TI.
La realidad de hoy… en la actualidad casi en su totalidad
las empresas pequeñas, medianas o grandes, están automatizados por software.
Grandes cantidades de datos son “transacciones” dentro de este software para
luego ser consultada, al menos por un tiempo prudencial.
¿Porque nace la inteligencia de negocios? Para aplicar
los principios básico de la empresa y para que el trabajo de los trabajadores
sea mucho más objetivo, fácil y accesible con herramientas de TI. Con la ayuda
de la tecnología posibilitamos realizar tareas repetitivas de forma
automatizada. La misión de TI siempre será brindar y custodiar datos e información
para que nuestros usuarios puedan hacer su trabajo y tomar decisiones.
Historia de Business Intelligence:
En los 80: cuando algunas empresas pudieron tener acceso
a SGBD y DASD. El concepto inteligencia de datos también comenzó.
En los 90 el panorama cambio, las grandes empresas
poseían su centro de información. Suplían de cierta forma información a los
ejecutivos y responsables de toma de decisiones.
Entre 1992 y 1993 nace el concepto y artefacto
DataWarehouse, que es un elemento fundamental y clave en proyectos de
inteligencia de negocios.
En 1996 el concepto BI fue comparado con EIS y DSS.
En la actualidad hay una discusión por el concepto de
inteligencia de negocios entre los europeos y los americanos.
Gurus del BI: Bill Inmon y Ralph Kimball. Padres actuales
de BI.
¿Qué son datos históricos? Son los hechos que se
suscitaron en algún periodo de tiempo pasado, que tiene validez y que
representan un momento en el tiempo. Bajo un contexto cuentan historias.
Los elementos base para hacer BI son los datos es la
historia.
DATOS: son un conjunto discreto de valores cualitativos o
cuantitativos que por sí mismos no dicen el porqué de las cosas.
INFORMACION: son un conjunto de datos pero que han sido
procesados y bajo un contexto determinado tiene sentido.
CONOCIMIENTO: es la mezcla entre experiencias, valores e
información de un contexto determinado cuando la información de comparar, se
ubica su origen, se conversa con otros entonces genera conocimiento.
Definición de Business Intelligence: es una estrategia
empresarial que persigue incrementar el rendimiento de la empresa o la
competitividad del negocio, a través de la organización inteligente de sus
datos históricos (transacciones u operaciones diarias) usualmente residiendo en
DataWarehouse corporativos o Data Marts departamentales.
Es la habilidad de transformar datos históricos en
información y la información en conocimiento de tal forma que se pueda
optimizar los procesos de toma de decisiones.
Beneficios para la empresa:
ü Dar uso a su activo lógico histórico, los datos.
ü La empresa podrá valorar elementos importantes, producto
del estudio de sus datos, para la toma de daciones en las diferentes unidades
de negocio. Podrá implementar reglas y planes de acción.
ü La empresa podrá volverse más competitiva frente a un
mercado cambiante y globalizado, puesto que tendrá herramientas estadísticas
reales basadas en su realidad.
Elementos de Business Intelligence:
Sistemas OLTP: corresponde a todas aquellas aplicaciones
de la empresa donde se registran datos o transacciones de algún área del
negocio. Las bases de datos OLTP están pensados para operar con transacciones
atómicas, es decir fueron diseñados para registrar y consultar pequeñas
cantidades de datos.
ETL: extracción, transformación y carga de datos. Son
procesos que permiten a las empresas mover datos desde múltiple orígenes de
datos sean estos homogéneos o no, limpiarlos reformatearlos y cargarlos en una
nueva base de datos.
Data mart: Es una BD des normalizada o al menos levenete
normalizada (en el caso de copo de nieve) debido a que la normalización ofrece
separación de datos repetitivos. Posee un esquema que puede ser copo de nieve o
tipo estrella.
Data Warehouse: Se define como una BD corporativa que se
caracteriza por ser integrada, temática, histórica y no volátil; sobre la cual
posteriormente podemos realizar análisis desde diferentes perspectivas y con
grandes velocidades de respuesta.
Cubo OLAP: son base de datos orientados al procesamiento
analítico. Lo que indica lectura de grandes cantidades de datos. Hay tres tipos
de cubos MOLAP, ROLAP Y HOLAP.
Dimensión: se refiere a las perspectivas mediante las
cuales podemos analizar los datos.
Medida: se refiere a los elementos numéricos en si, que
tengo para realizar el análisis.
Jerarquías: se refiere a los niveles de agrupación bajo
los cuales puedo analizar los datos.
KPI: Indicador Clave de Desempeño se trata de métricas
que se utilizan para cuantificar resultados de una determinada acción o
estrategia en función de unos objetivos previamente definidos. Debe ser
mediable, alcanzable, relevante y coherente con el tiempo.
Dashboard: el término en si se refiere al tablero de un
automóvil, el cual permite al conductor de forma permanente la revisión de
información del estado del vehículo. Es una herramienta que permite en tiempo
real el acceso a información previamente cuantificada para que esta sea
analizada de forma rápida y permita tomar decisiones online.
Explorar el contenido de DW/DM: Data mining son técnicas
y tecnologías que permite mediante prácticas estadísticas explorar el DW con el
fin de encontrar patrones repetitivos, tendencias o reglas que expliquen
comportamiento de los datos en un determinado contexto.
Va dirigido a todos los mandos medios, que entienden los
objetivos y un efecto cascada los hacen conocer a sus subalternos y los mandos
gerenciales son nuestros target.
En la actualidad existen varias herramientas en el
mercado las hay Open y también de paga. Cada herramienta contiene una serie de
elementos que la hacen competitiva frente a las otras, de igual forma sus
ventajas y desventajas; la selección de algunas de ellas dependerá de sus
necesidades y presupuestos.
Las empresas necesitan innovadores, nuevos coneceptos
nuevas ideas productos con el fin de incrementar productividad.
INTELIGENCIA DE NEGOCIOS: ESTADO DEL ARTE
La Inteligencia
de Negocios BI (Business Intelligence) es una herramienta bajo la cual
diferentes tipos de organizaciones, pueden soportar la toma de decisiones
basadas en información precisa y oportuna; garantizando la generación del
conocimiento necesario que permita escoger la alternativa que sea más
conveniente para el éxito de la empresa. La investigación comienza con la
definición y aplicaciones de BI; además se muestran trabajos relevantes en algunas
de las herramientas para hacer BI, como son Data Warehouse (Bodega de Datos),
Olap (Cubos Procesamiento Analítico en Línea), Balance Scorecard (Cuadro de
Mando) y Data Mining (Minería de Datos).
El cuadro de
mando integral (Balanced Scorecard) es una herramienta que permite
alinear los objetivos de las diferentes áreas o unidades con la estrategia de
la empresa y seguir su evolución.
Agile BI
Governance establece
4 valores básicos, pero dependiendo de cada organización puede incluir los que
vayan en relación con su propia estrategia.
Adaptabilidad
Continúa. La incertidumbre y el cambio continuo son el estado natural de los
sistemas de toma de decisiones, pero parece ser que muchas organizaciones aún
no son conscientes de ellos. En este tipo de proyectos siempre se está
cambiando el punto de vista analítico.
Trabajo
Conjunto. El usuario operativo del software ha de ser parte activa dentro de
los grupos de IT que desarrollan los sistemas de BI.
Jerarquías
Flexibles. Los grupos de trabajo dentro del Agile BI Governance deberán
estar estructurados con jerarquías flexibles que fomenten el intercambio de
información.
Personas Antes
que Procesos. Priorizar la entrega de la información a las personas que
controlan los procesos y no tanto en definir los procesos que han de controlar
las personas.
Business
Intelligence competir con información
Definición de
BI: es un proceso interactivo para explorar y analizar información estructurada
sobre un área, para descubrir tendencias o patrones a partir de las cuales derivar
ideas y extraer conclusiones. Mejora la toma de decisiones. El proceso de BI
incluye la comunicación de los descubrimientos y efectuar los cambiaos.
El momento
adecuado para utilizar BI es mediante el uso de tecnologías y las metodologías
de BI pretendemos convertir datos en información y a partir de la información
ser capaces de descubrir conocimiento. Es decir al inicio de un análisis y lo
que dure el proceso de análisis. Las políticas de BI van dirigida a cualquier
organización que cuente con información lista para ser procesada y analizada
para darle solución a cierto problema.
Los benéficos
que aporta la aplicación de BI a su negocio son:
-
Beneficios
tangibles: reducción de costes, generación de ingresos, reducción de tiempos
para las distintas actividades del negocio.
-
Beneficios
intangibles: el hecho de que tengamos disponible la información para la toma de
decisiones hará que más usuarios la utilicen.
-
Beneficios
estratégicos: todos aquellos que nos facilitan la formulación de la estrategia,
es decir, aquellos clientes, mercados o con que productos dirigirnos..
Podemos unificar
la información qie proviene de distintos entornos los primero es reunir la
información en un mismo entorno, de forma más concreta en una BD que a la que
llamaremos DataWarehouse donde copiaremos los registros. Realizamos una copia
de la información para poder trabajar con ella sin afectar a los sistemas de
información transaccionales.
Eficiencia y
transformación de los procesos de negocio a través del uso de TI.
Thompson, RJ y
Redstone, L (1997) definen un proceso como una serie de actividades
interconectadas en busca de un propósito. En un contexto de negocios, el
propósito de los procesos será proveer a sus clientes internos con sus
requerimientos de una manera oportuna.
La automatización
de procesos y de TI persigue crear la empresa agil. Mejora la calidad de las
cadenas de procesos de una organización y la gobernabilidad de dichos procesos
y de los sistemas de TI sobre los que se asientan. Se mejora así la eficacia,
eficiencia y calidad de estos procesos, apoyando tres estrategias clave:
intimidad con el cliente, liderazgo de productos y excelencia operativa.
Para esto en
necesario establecer los objetivos de mejoramiento de la empresa. A partir de
los objetivos estratégicos de mejoramiento fijados y la matriz FODA
(Debilidades, Amenazas, Fortaleza y Oportunidades). Que fija el marco
estratégico de la empresa, deben determinarse los procesos clave, O sea
aquellos cuyo mejoramiento determinara el alcance de tales objetivos.
Las
organizaciones se apoyan a sus procesos de negocio para ser guiados en este
complejo escenario. No obstante, en muchas organizaciones, dada la complejidad
del mismo, existe una importante diferencia entre los procesos que deberían
estar implantados y los procesos que se encuentran operando el negocio en
realidad. El enlace entre procesos de negocio y generación de valor lleva a
algunos practicantes a ver a los procesos de negocio como flujos de trabajo que
se efectúa las tareas de una organización. Para que nuestro análisis de
procesos tenga éxito, debe contener toda una estructura realista de lo que
sucede realmente en los procesos. Para determinar las oportunidades que tiene
la empresa por mejorar y emprender la mejor alineación hacia la cadena de valor
posible.
Importancia de
la alineación estratégica de los procesos de negocio y los servicios de TI.
La Planeación
Estratégica (PE) es el proceso cuyo objetivo principal es proyectar el futuro
deseado de una organización, así como los medios efectivos para lograrlo;
regularmente estos medios se traducen en objetivos estratégicos que son
impulsados por iniciativas o proyectos.
Ahora bien, en
el caso del área de tecnologías de información, que actualmente juega el papel
de socio estratégico, es necesario clarificar de qué manera contribuye al logro
de los objetivos de la organización, para lo cual se establece el proceso de PE
de Tecnologías de Información (TI), cuyo entregable es el Plan Estratégico de
Tecnologías de Información y Comunicaciones (PETIC), este proceso permite:
formular el plan estratégico de TI alineado al plan estratégico organizacional
para alcanzar los objetivos institucionales, diseñar el portafolio de proyectos
y servicios de TI, así como diseñar los planes tácticos y operativos de TI.
Las estrategias
de TI deben ser revisadas y actualizadas periódicamente.
Deben existir mecanismos de seguimiento y evaluación para medir el nivel de consecución de los objetivos de TI establecidos en el plan.
Deben existir mecanismos de seguimiento y evaluación para medir el nivel de consecución de los objetivos de TI establecidos en el plan.
Cómo las TI actuales y emergentes
pueden logran hacer eficientes los procesos de negocio y apoyar a la generación
y operación de las estrategias de negocio.
Las TICs agregan valor a las actividades
operacionales y de gestión empresarial en general y permite a las empresas
obtener ventajas competitivas, permanecer en el mercado y centrarse en su
negocio. La tecnología es importante e indispensable si se quiere sobrevivir en
este mundo altamente competitivo sobre todo si tu giro de negocios tiene que
ver con los sistemas y las Tecnologías de la información. Se sabe que la
infraestructura de la información proporciona fundamentos, dar servicio al
cliente, actuar con los proveedores y manejar procesos de negocios dentro de la
empresa. Incluye inversiones de hardware, software y servicios como
(consultoría, entrenamiento y capacitación) que se comprante en toda empresa o
de todas las unidades de negocio de la empresa.
Los sistemas de
información automatizan muchos pasos en los procesos de negocio que antes se
hacían de manera manual, como verificar el crédito de un cliente o generar una
factura y una orden de compra. Sin embargo en la actualidad la tecnología de
información puede hacer mucho más. La nueva tecnología puede cambiar realmente
el flujo de la información, remplazar tareas secuenciales con tareas que se pueden
realizar de manera simultánea y eliminando los atrasados en la toma de
decisiones. En otras palabras la información puede hacer posible procesos de
negocio completamente nuevos, incluso puede cambiar la forma de realizar los
negocios e impulsar modelos de negocios completamente nuevos.
Fuentes de información:
Mapa cognitivo
de comparaciones entre empresas que utilizan las TI y empresas que no utilizan
TI
Conclusión: las
tecnologías de la información hoy en día son parte importante en las empresas u
organizaciones ya que ayudan en la toma de decisiones importantes. En muchos
casos se ahorra económicamente aunque en un principio se considera más gasto al
tener que obtener ciertos equipos o la capacitación de los empleados y talvez
en las actualizaciones, pero a largo plazo se mejora económicamente y ayuda a
agilizar la obtención de información en algunos casos.
No hay comentarios.:
Publicar un comentario