viernes, 23 de mayo de 2008

Tic's













Tecnologías de la información y la comunicación
De Wikipedia, la enciclopedia libre
(Redirigido desde Tecnologías de la información)
Saltar a navegación, búsqueda
Tecnologías de la Información y la Comunicación (TIC), Son un solo concepto en dos vertientes diferentes como principal premisa de estudio en la ciencias sociales donde tales tecnologías afectan la forma de vivir de las sociedades. Su uso y abuso exhaustivo para denotar modernidad ha llevado a visiones totalmente erroneas del origen del término.
Las tecnologías como tal no se encargan del estudio, desarrollo, implementación, almacenamiento y distribución de la información mediante la utilización de hardware y software como recursos de los sistemas informáticos. De eso se encarga la ciencia informática.
Las tecnologías de la información y la comunicación no son parte de las tecnologías emergentes, las tecnologías emergentes son eso "emergentes". Las siglas TIC son el acrónimo.
Como concepto sociológico y no informático se refieren a saberes necesarios que hacen referencia a la utilización de multiples medios informáticos para almacenar, procesar y difundir todo tipo de información, telemática, etc. con diferentes finalidades (formación educativa, organización y gestión empresarial, toma de decisiones en general, etc.).
Por tanto no trata del objeto concreto sino de aquellos objetos intangibles para la ciencia social. Por ejemplo [democracia], y NTIC son dos conceptos que viajan en una misma dirección, mientras democracia es espíritu las NTIC son métodos, recursos, libertades que ofrecen transparencia a las gestiones gubernamentales.
Definición
A diferencia de la NTIC, Las TI (Tecnologías de Informática) se encargan del diseño, desarrollo, fomento, mantenimiento y administración de la información por medio de sistemas informáticos, para información, comunicaicón o ambos. Esto incluye todos los sistemas informáticos no solamente las computadoras, éstas son sólo un medio más, el más versátil, pero no el único; también las redes de telecomunicaciones, telemática, los teléfonos celulares, la televisión, la radio, los periódicos digitales, faxes, dispositivos portátiles, etc. Todas esas herramientas electrónicas de primera mano son de carácter determinante en la vida de todo profesional, sobre todo en el docente pues es él, el que se encargará de difundir la importancia de esta nueva tecnología.
Las TIC se conciben como el universo de dos conjuntos, representados por las tradicionales Tecnologías de la Comunicación (TC) - constituidas principalmente por la radio, la televisión y la telefonía convencional - y por las Tecnologías de la información (TI) caracterizadas por la digitalización de las tecnologías de registros de contenidos (informática, de las comunicaciones, telemática y de las interfaces)”. Pero en su sentido social y no netamente informático puesto que no tendría tal caso hacernos más bolas con nuevos conceptos si estuvieramos describiendo lo mismo.
Las TIC son herramientas teórico conceptuales, soportes y canales que procesan, almacenan, sintetizan, recuperan y presentan información de la forma más variada. Los soportes han evolucionado en el transcurso del tiempo (telégrafo óptico, teléfono fijo, celulares, televisión) ahora en ésta era podemos hablar de la computadora y de la Internet. El uso de las TIC representa una variación notable en la sociedad y a la larga un cambio en la educación, en las relaciones interpersonales y en la forma de difundir y generar conocimientos.
Necesidad
La instrumentación tecnológica es una prioridad en la comunicación de hoy en día, ya que las tecnologías de la comunicación son una importante diferencia entre una civilización desarrollada y otra en vías de desarrollo. Éstas poseen la característica de ayudar a comunicarnos ya que, a efectos prácticos, en lo que a captación y trasmisión de información se refiere, desaparece el tiempo y las distancias geográficas.

Carácter dual
La tecnología es dual por naturaleza ya que el impacto de ésta se verá afectado dependiendo del uso que le de el usuario: se puede ayudar a una comunidad rural a aprender por medio de la televisión, como también se puede explotar una bomba por medio de un teléfono celular. El uso de las tecnologías también es dual ya que pueden servir como medio de información y de entretenimiento así como también sirven de capacitación y como formación de tipo laboral,pues quien domine el campo de la informática tendrá más oportunidades de ser aceptado en el mundo laboral.
En cualquiera de los dos aspectos depende de los usuarios ofrecer contenidos de calidad, ya que es la audiencia quien determina y exige el tipo de contenidos que desea. Por tal motivo se habla de la implicación de las tecnologías dentro de la construcción social. La audiencia debe ser educada de una manera creativa, para que exijan contenidos de calidad y se elimine la marginación de mercado, ya que la programación "en el caso de la televisión, la radio y la computación está dirigida sólo a ciertos consumidores.
Las TIC y el Tercer Sector
Es común también comprender las TIC en relación a su magnitud (internet) Las Tic o Ntic tienen por objeto aportar claridad para conceptos aun más abstractos como la sociedad del conocimiento, la cual se asume fue acuñada por Peeter Drucker. El surgimiento, especialmente Internet está transformando las posibilidades de acceso a la información en el mundo entero, cambiando nuestra manera de comunicar y también las rutinas diaria en los ámbitos de trabajo. Las ONG's no han quedado al margen y al contrario han visto facilitado su trabajo gracias a ellas. Las ventajas que ofrecen las NTIC a las ONG’s son:
Comunicación fácil y a bajo coste.
Espacios de difusión, ej. Ciberactivismo.
Presencia mundial en el sector.
Posibilidad de fundraising, ej Ciberfundraising.
Mayor respuesta y velocidad a sus fines
Coordinación central y distribuida para la mejor toma de desiciones
Mayor impacto
Mejor respuesta
Hay ONGs que han sacado gran partido a estas herramientas como las exitosas campañas de movilización social y captación de socios de Amnistía Internacional, Greenpeace, Intermón-Oxfam, Médicos sin Fronteras o Friends of the Earth.
Sin embargo, pese a la gran cantidad de tecnología y herramientas disponibles hay Organizaciones que están quedando al margen de este desarrollo y beneficio, y es lo que se conoce como Brecha Digital. Donde en su mayoría son por terquedad, soberbia, ignorancia, arrogancia y falta de sentido pertinente.
Así surgen ONGs dispuestas a apoyar tecnológicamente a otras para que salgan de este agujero. Entre ellas se puede destacar el caso de:
The membership organization of nonprofit professionals quienes colocan las tecnologías al servicio de sus causas.
Ordenadores sin fronteras.
Circuit riders son profesionales de ICT que pueden visitar su organización para apoyarlo con sus necesidades de IT.
Iwith.org, fundación internacional que cree en el poder de las nuevas tecnologías para desarrollar el mundo.
Delivering ICT Resources for the Voluntary and Community Sector.
Fondo mundial de Solidaridad Digital (FSD).
cencap (Propuesta interesante sobre el uso moderno de las tic's en las organizaciones).
Social Source Commons es un sitio para compartir listas de herramientas de software que usted usa, obtiene conocimiento y soporte, Y descubre nuevas herramientas. Es un lugar para conocer gente con similares necesidades e intereses y resporder a la pregunta: que herramientas usan ellos?
-Idealware provides candid Consumer-Reports-style reviews and articles about software of interest to nonprofits, centralized into a website.
Categoría:Tecnologías de la información
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
El artículo principal de esta categoría es Tecnologías de la información y la comunicación.
Commons
Commons alberga contenido multimedia sobre Tecnologías de la información.
Subcategorías
Esta categoría incluye las siguientes 2 subcategorías, de un total de 2.
A
*Administración de las Tecnologías de Información
El artículo principal de esta categoría es Administración de las Tecnologías de Información.
Artículos en la categoría «Administración de las Tecnologías de Información»
Esta categoría incluye las siguientes 7 páginas, de un total de 7.
A
Administración de las Tecnologías de Información:
Desarrollo de sistemas de informacion que ayudan a resolver problemas de la administración.
Las organizaciones tanto lucrativas como no lucrativas deben mantenerse a la vanguardia en sus diferentes campos de acción, y para poder realizar esto deben contar con lo último en sistemas de información que puedan cubrir las necesidades tanto de su entorno interior como de su entorno exterior. El rediseño de una organización basado en la adquisición de nuevas tecnologías de información que den paso a un nuevo sistema de información no es tarea fácil, se tienen que tomar en cuenta muchos aspectos de la organización (recursos humanos, económicos y operativos) y se debe seguir un proceso previamente definido para poder hacer que este rediseño sea todo un éxito.
Lo primero que se debe realizar en el rediseño de una organización con sistemas de información es el análisis de las necesidades. Existen dos metodologías importantes para determinar las necesidades de información esenciales de la organización en su totalidad: • El análisis de la empresa, el cual examina toda la organización en términos de sus unidades, funciones, procesos y elementos de información • El análisis de los factores críticos para el éxito, el cual se basa en la premisa de que las necesidades de información de una organización están determinadas por un número reducido de factores críticos para el éxito (CSF, del inglés critical success factors).
Existen cuatro clases de cambio estructural en las organizaciones que se pueden presentar en el rediseño de una organización en base a sistemas de información:
1. Automatización, la forma más común de cambio en la organización que la tecnología de información hace posible. Esta consiste en el uso de computadoras para acelerar el desempeño de tareas existentes. 2. Racionalización, consiste en la agilización de los procedimientos operativos estándar eliminando cuellos de botella obvios, de modo que la automatización haga más eficientes los procedimientos operativos. 3. Reingeniería, esta implica rediseñar radicalmente el flujo de trabajo y los procesos de negocios que se siguen para generar productos y servicios, con el objeto de reducir radicalmente los costos del negocio 4. Cambios de paradigma, esta es la forma más radical de cambio en los negocios e implica una reconceptualización de la naturaleza del negocio y de la organización misma.
Un sistema de información nuevo se construye como solución de algún tipo de problema, o conjunto de ellos que la organización percibe ante sí. El término desarrollo de sistemas se refiere a todas las actividades implicadas en la producción de una solución de sistemas de información para un problema u oportunidad de la organización. El desarrollo de sistemas es un tipo de resolución de problemas estructurada con actividades bien definidas. Éstas consisten en:
1. El análisis de sistemas. Análisis de un problema que la organización tratará de resolver con un sistema de información. Además de sugerir una solución el análisis de sistemas implica un estudio de factibilidad para determinar si la solución es factible, para ello es preciso analizar tres áreas de factibilidad: • Factibilidad técnica • Factibilidad económica. • Factibilidad operativa.
2. Diseño de sistemas. Detalla cómo un sistema satisfará los requisitos de información determinados por el análisis de sistemas. El diseño puede ser lógico, el cual presenta los componentes del sistema de información; y físico, el cual es el proceso de traducción del modelo lógico al diseño técnico específico el sistema nuevo. 3. Programación. Proceso de traducir a código de programa las especificaciones del sistema preparadas durante la etapa de diseño. 4. Pruebas. Proceso exhaustivo y minucioso que determina si el sistema produce los resultados deseados en condiciones conocidas. 5. Conversión. Proceso de cambiar del sistema antiguo al nuevo. Existen cuatro estrategias de conversión principales: • Estrategia paralela. Enfoque de conversión seguro y conservador en el que tanto sistema antiguo como posible sustituto operan juntos durante un tiempo hasta que todos quedan convencidos de que el sistema nuevo funciona correctamente. • Estrategia de cambio directo. Enfoque de conversión riesgoso en el que el sistema nuevo sustituye totalmente al antiguo en un día designado. • Estrategia de estudio piloto. Introduce el sistema nuevo en un área limitada de la organización hasta que demuestre ser plenamente funcional; sólo entonces podrá efectuarse la conversión al sistema nuevo en toda la organización. • Estrategia del método de fases. Introduce el sistema nuevo en etapas, ya sea por funciones o por unidades de organización. 6. Producción y mantenimiento. Una vez que se ha instalado el sistema nuevo y se ha terminado de efectuar la conversión, se dice que el sistema está en producción. En esta etapa, tanto los usuarios como los especialistas técnicos revisan periódicamente el sistema para determinar qué tan bien está cumpliendo con sus objetivos originales y decidir si conviene efectuar alguna modificación. Los cambios con el fin de corregir errores, cumplir con requisitos nuevos o mejorar la eficiencia del procesamiento reciben el nombre de mantenimiento.
Los sistemas difieren en cuanto a su tamaño, complejidad tecnológica y los problemas de organización que se supone van a resolver. Puesto que hay diferentes tipos de sistemas y de situaciones en los que cada sistema se concibe o construye, se han desarrollado varios métodos de construcción de sistemas, los cuales deben cumplir con la metodología explicada en este artículo.

E
ETL:
ETL son las siglas en inglés de Extraer, Transformar y Cargar (Extract, Transform and Load). Es el proceso que permite a las organizaciones mover datos desde múltiples fuentes, reformatearlos y limpiarlos, y cargarlos en otra base de datos, data mart, o data warehouse para analizar, o en otro sistema operacional para apoyar un proceso de negocio.
Los procesos ETL también se pueden utilizar para la integración con sistemas heredados.
Extraer
La primera parte del proceso ETL consiste en extraer los datos desde los sistemas de origen. La mayoría de los proyectos de almacenamiento de datos fusionan datos provenientes de diferentes sistemas de origen. Cada sistema separado puede usar una organización diferente de los datos o formatos distintos. Los formatos de las fuentes normalmente se encuentran en bases de datos relacionales o ficheros planos, pero pueden incluir bases de datos no relacionales u otras estructuras diferentes. La extracción convierte los datos a un formato preparado para iniciar el proceso de transformación.
Una parte intrínseca del proceso de extracción es la de analizar los datos extraídos, de lo que resulta un chequeo que verifica si los datos cumplen la pauta o estructura que se esperaba. De no ser así los datos son rechazados.
Un requerimiento importante que se debe exigir a la tarea de extracción es que ésta cause un impacto mínimo en el sistema origen. Si los datos a extraer son muchos, el sistema de origen se podría ralentizar e incluso colapsar, provocando que éste no pueda utilizarse con normalidad para su uso cotidiano. Por esta razón, en sistemas grandes las operaciones de extracción suelen programarse en horarios o días donde este impacto sea nulo o mínimo.
Transformar
La fase de transformación aplica una serie de reglas de negocio o funciones sobre los datos extraídos para convertirlos en datos que serán cargados. Algunas fuentes de datos requerirán alguna pequeña manipulación de los datos. No obstante en otros casos pueden ser necesarias aplicar algunas de las siguientes transformaciones:
Seleccionar sólo ciertas columnas para su carga (Ej. que las columnas con valores nulos no se carguen).
Traducir códigos (Ej. Si la fuente almacena una "H" para Hombre y "M" para Mujer pero el destino tiene que guardar "1" para Hombre y "2" para Mujer).
Codificar valores libres (Ej. convertir "Hombre" en "H" o "Sr" en "1").
Obtener nuevos valores calculados (Ej. total_venta = cantidad * precio).
Unir datos de múltiples fuentes (Ej. búsquedas, combinaciones, etc).
Calcular totales de múltiples filas de datos (Ej. ventas totales de cada región).
Generación de campos clave en el destino.
Transponer o pivotar (girando múltiples columnas en filas o viceversa).
Dividir una columna en varias (Ej. columna "Nombre: García, Miguel"; pasar a dos columnas "Nombre: Miguel" y "Apellido: García").
La aplicación de cualquier forma, simple o compleja, de validación de datos, y la consiguiente aplicación de la acción que en cada caso se requiera:
Datos OK: Entregar datos a la siguiente etapa (Carga).
Datos erróneos: Ejecutar políticas de tratamiento de excepciones (Ej. Rechazar el registro completo, dar al campo erróneo un valor nulo o un valor centinela).
Carga
La fase de carga es el momento en el cual los datos de la fase anterior (transformación) son cargados en el sistema de destino. Dependiendo de los requerimientos de la organización, este proceso puede abarcar una amplia variedad de acciones diferentes. En algunas bases de datos se sobrescribe la información antigua con nuevos datos. Los data warehouse mantienen un historial de los registros de manera que se pueda hacer una auditoría de los mismos y disponer de un rastro de toda la historia de un valor a lo largo del tiempo.
Existen dos formas básicas de desarrollar el proceso de carga:
Acumulación simple: La acumulación simple es la más sencilla y común, y consiste en realizar un resumen de todas las transacciones comprendidas en el período de tiempo seleccionado y transportar el resultado como una única transacción hacia el data warehouse, almacenando un valor calculado que consistirá típicamente en un sumatorio o un promedio de la magnitud considerada.
Rolling: El proceso de Rolling por su parte, se aplica en los casos en que se opta por mantener varios niveles de granularidad. Para ello se almacena información resumida a distintos niveles, correspondientes a distintas agrupaciones de la unidad de tiempo o diferentes niveles jerárquicos en alguna o varias de las dimensiones de la magnitud almacenada (Ej. Totales diarios, totales semanales, totales mensuales, etc.).
La fase de carga interactúa directamente con la base de datos de destino. Al realizar esta operación se aplicarán todas las restricciones y triggers (disparadores) que se hayan definido en ésta (Ej. valores únicos, integridad referencial, campos obligatorios, rangos de valores). Estas restricciones y trigger (si están bien definidos) contribuyen a que se garantice la calidad de los datos en el proceso ETL, y deben ser tenidos en cuenta.
Procesamiento paralelo
Artículo principal: Paralelismo (Informática)
Un desarrollo reciente en el software ETL es la aplicación de procesamiento paralelo. Esto ha permitido desarrollar una serie de métodos para mejorar el rendimiento general de los procesos ETL cuando se trata de grandes volúmenes de datos. Hay 3 tipos principales de paralelismos que se pueden implementar en las aplicaciones ETL:
De datos: Consiste en dividir un único archivo secuencial en pequeños archivos de datos para proporcionar acceso paralelo.
De segmentación (pipeline): Permitir el funcionamiento simultáneo de varios componentes en el mismo flujo de datos. Un ejemplo de ello sería buscar un valor en el registro número 1 a la vez que se suman dos campos en el registro número 2.
De componente: Consiste en el funcionamiento simultáneo de múltiples procesos en diferentes flujos de datos en el mismo puesto de trabajo.
Estos tres tipos de paralelismo no son excluyentes, sino que pueden ser combinados para realizar una misma operación ETL.
Una dificultad adicional es asegurar que los datos que se cargan sean relativamente consistentes. Las múltiples bases de datos de origen tienen diferentes ciclos de actualización (algunas pueden ser actualizadas cada pocos minutos, mientras que otras pueden tardar días o semanas). En un sistema de ETL será necesario que se puedan detener ciertos datos hasta que todas las fuentes estén sincronizadas. Del mismo modo, cuando un almacén de datos tiene que ser actualizado con los contenidos en un sistema de origen, es necesario establecer puntos de sincronización y de actualización.
Desafíos
Los procesos ETL pueden ser muy complejos. Un sistema ETL mal diseñado puede provocar importantes problemas operativos.
En un sistema operacional el rango de valores de los datos o la calidad de éstos pueden no coincidir con las expectativas de los diseñadores a la hora de especificarse las reglas de validación o transformación. Es recomendable realizar un examen completo de la validez de los datos (Data profiling) del sistema de origen durante el análisis para identificar las condiciones necesarias para que los datos puedan ser tratados adecuadamente por las reglas de transformación especificadas. Esto conducirá a una modificación de las reglas de validación implementadas en el proceso ETL.
Normalmente los data warehouse son alimentados de manera asíncrona desde distintas fuentes, que sirven a propósitos muy diferentes. El proceso ETL es clave para lograr que los datos extraídos asíncronamente de orígenes heterogéneos se integren finalmente en un entorno homogéneo.
La escalabilidad de un sistema de ETL durante su vida útil tiene que ser establecida durante el análisis. Esto incluye la comprensión de los volúmenes de datos que tendrán que ser procesados según los acuerdos de nivel de servicio (SLA: Service level agreement). El tiempo disponible para realizar la extracción de los sistemas de origen podría cambiar, lo que implicaría que la misma cantidad de datos tendría que ser procesada en menos tiempo. Algunos sistemas ETL son escalados para procesar varios terabytes de datos para actualizar un data warehouse que puede contener decenas de terabytes de datos. El aumento de los volúmenes de datos que pueden requerir estos sistemas pueden hacer que los lotes que se procesaban a diario pasen a procesarse en micro-lotes (varios al día) o incluso a la integración con colas de mensajes o a la captura de datos modificados (CDC: change data capture) en tiempo real para una transformación y actualización continua.
Algunas Herramientas ETL
ETI*Extract (ahora llamada Eti Solution)
Oracle Warehouse Builder
Data Integrator (herramienta de Business Objects)
Ab Initio
Barracuda Software (Integrator)
Cognos Decisionstream
IBM Websphere DataStage (Previously Ascential DataStage)
Microsoft DTS (incluido en SQL-Server)
Microsoft Integration Services (MS SQL Server 2005)
Informática PowerCenter
metaWORKS ( Document Tools)
Scriptella ETL - Libre, Apache-licensed ETL
Genio, Hummingbird
CloverETL [1]
Benetl
MySQL Migration Tool
WebFocus-iWay DataMigrator Server
Libres [editar]
Kettle
Scriptella Open Source ETL Tool
Talend Open Studio
Licencia [editar]
SmartDB Workbench
DataStudio
Integrator
Informática PowerCenter
Datastage d'IBM (suite au rachat d'Ascential en 2005)
Sunopsis
Oxio Data Intelligence ETL full web
G
Gestión de Servicio TI:
La Gestión de servicios de tecnologías de la información (TI) de alta calidad (ITSM por sus siglas en inglés IT Service Management) es una disciplina basada en procesos, enfocada en alinear los servicios de TI proporcionados con las necesidades de las empresas, poniendo énfasis en los beneficios que puede percibir el cliente final. GSTI propone cambiar el paradigma de gestión de TI, por una colección de componentes enfocados en servicios "end-to-end" usando distintos marcos de trabajo con las "mejores prácticas", como por ejemplo la Information Technology Infrastructure Library (ITIL) o el eSCM (enabled Service Capability Model).
Los proveedores de los servicios de TI no pueden seguir manteniendo su enfoque en la tecnología y sus propias organizaciones, ahora tienen que considerar la calidad de los servicios que proveen y enfocarse en sus relaciones con los clientes[1]
Usualmente la gestión de servicios de TI involucra el uso de outsourcings, insourcings y servicios compartidos. Es extremadamente importante mantener una base de conocimiento amplia dentro de la organización para que estas prácticas sean exitosas.Los objetivos de una buena gestión de servicios TI han de ser:
Proporcionar una adecuada gestión de la calidad
Aumentar la eficiencia
Alinear los procesos de negocio y la infraestructura TI
Reducir los riesgos asociados a los Servicios TI
Generar negocio

Alineación con los objetivos del Negocio
Las organizaciones actuales hacen inversiones importantes en recursos de tecnología de información para apoyar los procesos de negocio. El valor significativo y relevante que el uso de la información tiene para las organizaciones, determina que todos los procesos relativos a la producción, administración y uso de servicios de Tecnologías de Información (TI) deben ser óptimamente gestionados y controlados para asegurar la calidad de la información, soporte del cumplimiento de los objetivos del negocio. Los procesos de datos e información producto de las operaciones y procesos del negocio, requieren la aplicación de técnicas y medidas de control en el marco de un sistema de gestión que garantice la prestación de los servicios y la reducción de vulnerabilidad a amenazas generadoras de riesgo que pongan en peligro la estabilidad del sistema operacional, organizacional y del sistema macro del negocio. Todo lo anterior, justifica la necesidad de optimizar los recursos de TI en apoyo y alineación con los objetivos de negocio a través de procesos efectivos de GESTIÓN DE SERVICIO TI.
En las organizaciones existe una organización de TI que genera y provee los servicios de TI y un grupo de clientes internos (usuarios) y externos que demandan esos servicios y esperan su prestación oportuna y con calidad. Las relaciones y comunicaciones entre el proveedor de TI y los clientes de TI deben ser canalizadas a través de un sistema que garantice la optimación de los procesos de entrega y soporte de servicios a través de la consolidación de Gestión de Servicio TI. Las inversiones en la infraestructura de TI y en los activos de información de las organizaciones cada vez son más importantes, lo cual justifica la implantación de sistemas que aseguren el rendimiento de los procesos basados en servicios de TI para asegurar la reducción del costo total de propiedad (TCO) y un retorno de la inversión (ROI) razonable. Hasta ahora, solo algunas empresas de alto nivel y tamaño han asumido e incorporado a su cultura organizacional y planes de negocio, los procesos de Gestión de Servicio TI basada en las mejores prácticas de aceptación internacional. Este nuevo paradigma basado en el servicio debe tener un acercamiento a las Organizaciones de cualquier tamaño, las empresas deben adoptar y adaptar estas mejores prácticas bajo un enfoque de Calidad de Servicio y oportunidad para el cambio del negocio con la aplicación de estándares actualizados. Este paradigma se fundamenta en el mejoramiento continuo de la Cultura de Servicio TI.
Los productos y servicios de estos marcos de referencia están orientados a la implantación de sistemas consolidados de mejoramiento continuo en la Gestión de Servicio de Tecnología de Información en alineación con los objetivos del negocio, de punta a punta desde las fases diagnostica y de planificación hasta la implantación, monitoreo, supervisión y optimación. La tendencia de Gestión de Servicio TI se basa en la promoción y soporte de aplicación de las mejores prácticas, marcos referenciales y estándares de aceptación internacional, tales como ISO/IEC 20000, ITIL, ITSCMM, COBIT, ISO/IEC -17799 – 2700X, y otras.

Gobierno de las TI
La Gestión de Gobierno de TI, traducción del conjunto de mejores prácticas establecidas como ITSM del inglés (Information Technology Service Management) acuñado a partir de la creación e implantación de los principios y fundamentos ingleses promovidos en el conjunto de prácticas documentadas en ITIL (Information Technology Infraestructure Library), normados en el código BS15000 (British Standard 15000) y que actualmente se ha internacionalizado y estandarizado a nivel global por la extensión en la norma ISO/IEC 20000, es hoy día un nuevo y vigoroso enfoque de prácticas a seguir y base de certificación en esquemas de negocio de mejoramiento continuo en el uso y aprovechamiento de Tecnologías de Información en apoyo al logro de los objetivos de negocio.
Marcos de trabajo (Frameworks)
Existe una gran variedad de marcos de trabajo y autores que han contbuido a esta disciplina[2] Algunos Marcos de Trabajo son:
Information Technology Infrastructure Library (ITIL)
Control Objectives for Information Technology (COBIT)
Application Services Library (ASL)
Business Information Services Library[3] (BISL)
Microsoft Operations Framework (MOF)
eServices Capability Model for Service Providers (eSCM_SP) y eServices Capability Model for Client Organizations (eSCM-CL) del ITsqc para la gestión de Sourcing.

Gestión de contenido empresarial:

De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
La gestión de contenido empresarial o Enterprise Content Management (ECM) es una de las estrategias y tecnología empleadas en la industria de la tecnología de la información para manejar la captura, almacenamiento, seguridad, control de versiones, recuperación, distribución, conservación y destrucción de documentos y contenido.


S
Servicios de TI:
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Un servicio de TI es un conjunto de actividades que buscan responder a una o más necesidades de un cliente por medio de un cambio de condición en los bienes informáticos potenciando el valor de estos y reduciendo el riesgo inherente del sistema. Servicios son maneras de entregar valor a los clientes como soporte de los resultados que los clientes pueden obtener sin incurrir en costos y riesgos específicos. Servicios no son bienes intangibles.Los servicios tienen dos características basicas:
Utilidad. El valor producido por el servicio
Garantía. Es lo que se espera del servicio
Disponibilidad
Confiabilidad
Capacidad
Seguridad


Acuerdos de Nivel de Servicio.
Son las políticas establecidas o acordadas de respuesta a las peticiones y/o reportes de incidentes, referidos a la continuidad y estabilidad del servicio. Para ello se debe determinar los factores de atención para los Incidentes, teniendo en cuenta:• Nivel de Prioridad.• Niveles de calidad.• Otros de acuerdo a los requerimientos y configuración de la organización

Molde de nivel de servicio

Manejo de Incidentes
Incidente: Falla en el normal funcionamiento de un servicioProblema: Motivo causante de un incidenteError:
Detección Diagnóstico Recupeación/Restauración Reparación

Componentización de servicios.
Diseñar los servicios en formas de componentes (plug-and-play) que se puedan intercambiar de forma sencilla buscando tener el mejor valor agregado.

Outsourcing
El contrato de outsourcing en general responde a toda una tendencia vinculada a la reorganización de las grandes organizaciones a nivel mundial, entendiéndose que las mismas deben concentrar sus esfuerzos en las actividades comerciales, en el objeto de la organización, para obtener una mayor competitividad. Para ello es necesario encomendar a un tercero las tareas periféricas, como pueden ser el manejo de stock, almacenaje, procesamiento de datos, etc.
Insourcing
el Insourcing se trata de la transferencia de una función que ha sido objeto de outsourcing a un departamento interno de la compañía para que sea totalmente manejado de nuevo por los trabajadores de la compañía madre. e
Industrialización de servicios
Especialización del trabajo: economías de escala y de alcance Consolidación de la demanda Análisis de Capacidad de Operación



V
VxD:
En la informática relativa a Microsoft, un VxD es un controlador de dispositivo virtual. Se ejecutan bajo los sistemas operativos Windows 3.x, Windows 95, Windows 98 y Windows Me, y tienen acceso a la memoria del kernel y a todos los procesos en ejecución, así como acceso directo al hardware.
Antes de Windows, las aplicaciones DOS se comunicaban a menudo directamente con diversos componentes del hardware respondiendo a las interrupciones, leyendo y escribiendo en la memoria del dispositivo, etc, lo que aún podía hacerse en las DLL de Windows debido al modelo de único nivel de privilegios que perduró durante todos los Windows 9x. Cada aplicación esperaba tener acceso exclusivo y completo sobre el hardware. Windows/386 y posteriores permitían a múltiples aplicaciones MS-DOS ejecutarse simultáneamente. Esto se hacía ejecutando cada aplicación clásica dentro de su propia máquina virtual. Para compartir arbitrarios recursos físicos entre esas máquinas virtuales, Microsoft introdujo controladores de dispositivo virtuales cargables dinámicamente. Estos controladores resolvieron los problemas relativos al uso contradictorio de recursos físicos interceptando las llamadas al hardware. Un puerto de ordenador, en lugar de aparecer como un dispositivo real, aparecería como un dispositivo "virtual", que sería gestionado por el sistema operativo.
El nombre VxD viene del hecho de que la mayor parte de esos controladores de dispositivo virtuales tenían nombres de fichero como "v(algo)d.386" en Windows 3.x. Por ejemplo, vjoyd.386 (joystick), vmm.386 (gestor de memoria) y así. Los VxD tenían generalmente la extensión .386 bajo Windows 3.x y .vxd bajo Windows 95. Los VxD escritos para Windows 3.x podían usarse bajo Windows 95, pero no a la inversa.
Los VxD dejaron de soportarse a partir de Windows NT. Los controladores de dispositivo para Windows 2000 y Windows XP usan el Windows Driver Model (WDM).
Obtenido de "http://es.wikipedia.org/wiki/VxD"

W
Web mining:
El Web mining es una metodología de recuperación de la información que usa herramientas de la minería de datos para extraer información tanto del contenido de las páginas, de su estructura de relaciones (enlaces) y de los registro de navegación de los usuarios.
En este sentido podemos definir el Web mining en tres variantes:
1. Mineración del contenido de la Web, o Web Content Mining;
2. Mineración de la estructura de la Web, o Web Structure Mining;
3. Mineración de los registro de navegación en la Web. o Web Usage Mining.


I
* Identificadores internacionales:
Artículos en la categoría «Identificadores internacionales»
Esta categoría incluye las siguientes 10 páginas, de un total de 10.
A
ASIN:
El código ASIN fue creado por la empresa Amazon para identificar sus productos.Toma su nombre del ingles "Amazon Standard Identification Number". Todos los productos vendidos por Amazon lo tienen siendo un numero único.
En el caso de los libros el código ASIN coincide con el código ISBN.

D
DUNS:
El número DUNS (del inglés Data Universal Numbering System o Sistema Universal de Numeración de Datos) pertenece a un sistema desarrollado y regulado por Dun & Bradstreet (D&B) que asigna un identificador numérico único para cada entidad de negocio (sociedad, consorcio, etc.). Este identificador numérico se conoce como el número DUNS, o D-U-N-S. Fue introducido en 1963 para dar soporte a los reportes de crédito de D&B, alcanzando luego una aceptación global que lo ha convertido en un estándar. Entre sus usuarios se incluye la Comisión Europea, la Organización de las Naciones Unidas, gobiernos y empresas multinacionales. Es reconocido, recomendado y/o requerido por más de 50 asociaciones globales de industria y comercio. La base de datos DUNS tiene más de 100 millones de registros de empresas de todo el mundo.
El número DUNS está compuesto por nueve dígitos y se asigna uno por cada unidad de negocio en la base de datos de D&B. El número se asigna al azar sin esconder sus dígitos ningún significado especial. Hasta aproximadamente diciembre de 2006, el número DUNS contenía un dígito verificador para detectar errores de ingreso de datos. Esta asignación ha sido discontinuada para incrementar la cantidad de números asignables de 100 millones a 1.000 millones. Obtener un número DUNS no tiene costo alguno. Para obtener un número DUNS solicitado vía Internet, la espera suele se de una semana (hay menciones de que puede ser tan larga como 30 días). En el caso de que se solicite por teléfono y pagando un cargo por investigación, se obtiene inmediatamente.
A diferencia de los números de identificación tributaria, el número DUNS se puede asignar a una unidad de negocio en cualquier parte del mundo. Ciertas agencias gubernamentales requieren de sus proveedores, además del número fiscal, el número DUNS. Aunque originalmente el número DUNS estaba disponible solo para organizaciones, a causa de las mencionadas exigencias ahora está disponible también para individuos.
El número DUNS permite identificar a un grupo de compañías sin relación oficial, obteniendo un número DUNS para compañías afiliadas.
El número DUNS se muestra a menudo segmentado con guiones para facilitar su lectura, como por ejemplo 12-345-6789. Usos más recientes omiten los guiones (Ej: 123456789), que es la versión actual del número DUNS de D&B).
Existen otros sistemas para numerar unidades de negocio. Por ejemplo la Red de Proveedores Internacionales (ISN por sus siglas en inglés). Sin embargo pocas, si alguna, tienen el volumen de negocios internacionales que registra el sistema DUNS.



Digital object identifier:
Un DOI (digital objet identifier) o Identificación de Material Digital, es un sistema estándar para legalizar la propiedad intelectual de obras difundidas a través de cualquier tipo de formato digital, por ejemplo Internet. Es un sistema parecido a los identificadores URI. Una forma común de emplear el sistema DOI es dar a las publicaciones científicas un número específico que cualquiera puede utilizar para localizar a través de la Red el citado artículo. A diferencia del sistema URL, usado en las páginas web, el sistema DOI no cambia con el paso del tiempo, aunque el artículo sea reubicado en una dirección distinta puesto que lleva la información incorporada en forma de metadatos.
El sistema de control DOI ha sido elaborado por la Corporación Nacional para Iniciativas de Investigación (CNRI), una asociación estadounidense no lucrativa destinada a promover el desarrollo de las tecnologías de la información y la comunicación en el campo de la investigación científica.

E
European Article Number:
European Article Number es un sistema de códigos de barras adoptado por más de 100 países y cerca de un millón de empresas (2003). En el año 2005 la asociación EAN se ha fusionado con la UCC para formar una nueva y única organización mundial identificada como GS1, con sede en Bélgica.
El código EAN más usual es EAN13, constituido por 13 dígitos y con una estructura dividida en 4 partes:
Los primeros dígitos del código de barras EAN identifican el país que otorgó el código, no el país de origen del producto. Por ejemplo, en Bolivia se encarga de ello una empresa responsable adscrita al sistema EAN y su código es el '777'.
Referencia del ítem, compuesto de:
Código de empresa. Es un número compuesto por entre 5 y 8 dígitos, que identifica al propietario de la marca.
Código de producto. Completa los 12 primeros dígitos.
Dígito de control. Para comprobar el dígito de control (por ejemplo, inmediatamente después de leer un código de barras mediante un escáner),numeramos los dígitos de derecha a izquierda. A continuación se suman los dígitos de las posiciones impares , el resultado se multiplica por 3,y se le suman los dígitos de las posiciones pares. Se busca decena inmediatamente superior y se le resta el resultado obtenido. El resultado final es el dígito de control.Si el resultado es múltiplo de 10 el dígito control será 0
Por ejemplo, para 123456789041 el dígito de control será:
Numeramos de derecha a izquierda
Suma de los números en los lugares impares: 2+4+6+8+0+1 = 21
Multiplicado × 3: 21 × 3 = 63
Suma de los números en los lugares pares: 1+3+5+7+9+4 = 29
Suma total: 63 + 29 = 92
Decena inmediatamente superior = 100
Dígito de control: 100 - 92 = 8
El código quedará: 1234567890418
Véase también
Tienda de autoservicio
Código de barras
Symbol


I
ISBN:
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
El International Standard Book Number (en español, ‘número estándar internacional de libro’), abreviado ISBN, es un identificador único[1] para libros, previsto para uso comercial. Fue creado en el Reino Unido en 1966 por las librerías y papelerías británicas W. H. Smith y llamado originalmente Standard Book Numbering (en español, ‘numeración estándar de libros’), abreviado SBN. Fue adoptado como estándar internacional ISO 2108 en 1970.
En publicaciones periódicas como revistas se usa el Número Internacional Normalizado de Publicaciones Seriadas (ISSN, International Standard Serial Number).
Descripción
El ISBN de diez dígitos
Hasta la reforma que entró en vigor en 2007, cada edición y variación (excepto las reimpresiones) de un libro recibía un ISBN compuesto por 10 dígitos de longitud, y dividido en cuatro partes:
1. el código de país o lengua de origen,
2. el editor,
3. el número del artículo, y
4. un dígito de control.
Estas partes tienen distintas longitudes y generalmente están separadas por guiones. Sin embargo estos guiones no son imprescindibles, ya que se utilizan prefijos para asegurarse de que dos códigos no puedan comenzar de la misma forma.
En caso de usarse, tiene que estar situado correctamente (pueden consultarse las instrucciones en inglés aquí); no obstante no son suficientes ya que hay distintas agencias responsables de la asignación de subrangos ISBN, y no hay ninguna lista actualizada disponible en isbn.org.
El código de país es 0 ó 1 para países de habla inglesa, 2 para países de habla francesa, 3 para países de habla alemana, 84 para España, etc. El sistema original SBN carecía del código de país, pero anteponiendo un 0 a un número SBN de 9 dígitos se creaba un ISBN válido. El código de país puede tener hasta 5 dígitos de longitud; por ejemplo, el 99936 se usa para Bhutan. Se puede consultar la lista de ISBN por países.
El número del editor es asignado por la agencia nacional del ISBN, y el número del artículo es elegido por el editor.
Los editores reciben bloques de ISBN más grandes de los que se espera que necesiten; un editor pequeño puede recibir ISBN que consistan en un dígito para el idioma, siete dígitos para el editor y un solo dígito para los artículos individuales. Una vez que termine ese bloque puede recibir otro, con un número de editor diferente. Por tanto, a veces diferentes números de editor corresponden en realidad al mismo.
El dígito de control de un ISBN se puede calcular multiplicando cada dígito del ISBN por el lugar que ocupa dicho dígito en la secuencia numérica (multiplicando el primero por la izquierda por 1, el siguiente por 2, etc.); y luego tomando la suma de estas multiplicaciones y calculando la suma de módulo 11, con «10» representado por el carácter «X».
El ISBN de trece dígitos
Debido a la escasez existente en ciertas categorías del ISBN, la organización de estándares internacional adoptó implantar un ISBN de trece dígitos desde el 1 de enero de 2007. Esta actualización pone a la par el sistema del ISBN con el sistema de códigos de barras UPC. Hay un documento de preguntas frecuentes (en inglés) sobre este cambio. Los ISBN existentes se prefijan con «978» (y el dígito de control será recalculado); cuando se agoten los ISBN «978», se introducirá el prefijo 979. Cabe señalar la poca probabilidad de que coincidan los números de identificación del editor asignados en los ISBN «978» y «979».
Muchos libreros, incluyendo Barnes & Noble, han optado por eliminar el uso de ISBNs a partir de marzo de 2005. En su lugar han adoptado el estándar más universal EAN, puesto que éste se aplica a todos los soportes y no sólo a los libros. No está claro cómo afecta esta decisión a la mejora prevista del ISBN.
Formato EAN usado en códigos de barras
Actualmente, el código de barras que se encuentra en la contraportada de los libros (o tras la cubierta en las ediciones de bolsillo) es de formato EAN13; pueden ser «Bookland», es decir, con un código de barras aparte, que codifica cinco dígitos para la moneda y el precio de venta recomendado. Hay una descripción detallada del formato EAN13 (en inglés) aquí. El código «978» para libros se antepone al ISBN en los datos del código de barras, y el dígito de control se recalcula según la fórmula EAN13 (módulo 10, 1x y 3x aplicado en dígitos alternos).
Sistemas similares
ASIN (Amazon Standard Identification Number) (o Número de Identificación Estándar de Amazon)
ISMN (International Standard Music Number) (o Número Musical Estándar Internacional)
ISAN (International Standard Audiovisual Number) (o Número Audiovisual Estándar Internacional)
ISSN (International Standard Serial Number) (o Número Internacional Normalizado de Publicaciones Seriadas): se usa en publicaciones periódicas como revistas.
IBSN (Internet Blog Serial Number) o (Número Serie de Blogs de Internet)

Notas
1. No siempre se ha mantenido este criterio; por ejemplo, la primera edición de The Ultimate Alphabet y The Ultimate Alphabet Answerbook tienen el mismo ISBN, y se ha publicado al menos un libro con cuatro números ISBN impresos, dependiendo el uso de uno de ellos de las consideraciones que los múltiples editores considerasen oportunas para una copia en particular.


Código ISIN:
Para otros usos de este término véase Isin.
ISIN, acrónimo de International Securities Identification Numbering system.
El código ISIN tiene como finalidad identificar de forma unívoca a un valor mobiliario a nivel internacional. Se compone de 12 caracteres alfanuméricos con la siguiente estructura:
Los dos primeros corresponden al código del país de la agencia de codificación que asigna el código según se trate de valores de renta fija, variable, ADRs, etc.
Los siguientes nueve caracteres contienen el código nacional de identificación del valor en cada país. La estructura y tamaño de este código quedan al criterio de la agencia de codificación del país.
El último carácter es un dígito de control.
En España la CNMV a través de la Agencia Nacional de Codificación asigna código ISIN a los siguientes productos:
Acciones
Derechos de suscripción y warrants
Opciones financieras
Futuros
Participaciones en Fondos de Inversión
Subyacentes
Deuda pública
Obligaciones, cédulas, bonos y participaciones hipotecarias emitidas por entidades públicas y privadas
Pagarés de empresa
Pueden dirigirse a la Agencia Nacional de Codificación para solicitar la asignación de código ISIN:
Entidades emisoras
Bancos
Cajas de Ahorros
Entidades de Crédito
Sociedades y Agencias de Valores
Mercados de Valores y de productos derivados
Servicio de Compensación y Liquidación de Valores (SCLV)
Instituciones de Inversión Colectiva.
El solicitante de asignación debe facilitar a la Agencia los datos y la documentación necesaria para que se pueda constatar la existencia de la emisión y la característica de valor codificable. Para consultar códigos de emisiones extranjeras basta con dirigir consulta a este mismo organismo.

ISSN
El ISSN (International Standard Serial Number, Número Internacional Normalizado de Publicaciones Seriadas) es un número internacional que permite identificar de manera única una colección, evitando el trabajo y posibles errores de transcribir el título o la información bibliográfica pertinente. Se reserva a las publicaciones en serie como los diarios y las Publicaciones Periódicas. El ISSN permite normalizar las clasificaciones, en las bibliotecas por ejemplo.
El ISSN está normalizado por el texto ISO 3297 (ICS n° 01.140.20).
Introducción
El ISSN está constituido por los caracteres "ISSN" seguidos de dos grupos de cuatro cifras, estos grupos se separan por guiones. La última cifra, situada en octava posición, sirve de clave de control; puede a veces tomar el valor "X", que representa el número 10.
Contrariamente al ISBN, las cifras del ISSN no significan nada en sí mismas. Son asignadas secuencialmente, independientemente del país de origen, de la lengua, etc. A cada ISSN corresponde un título-clave así como una fecha de principio de publicación. La fecha de final se fija normalmente en "9999". El título-clave está formado por el nombre de la publicación y, eventualmente, por un calificativo, frecuentemente el lugar de publicación.
¿Qué son las Publicaciones Periódicas?
Son las ediciones sucesivas, que usualmente se designan de manera numérica o cronológica y pretenden continuarse indefinidamente.
Función del ISSN
El ISSN debe considerarse como una parte básica de la publicación seriada, al igual que su título. Su aplicación es muy variada, entre otras, vale la pena mencionar:
Un ISSN único identifica a un título de una publicación seriada en cualquier idioma y cualquier parte del mundo.
El ISSN provee un método conveniente y económico de comunicación entre editores y distribuidores bibliográficos, convirtiendo los sistemas de suministro comercial en sistemas ágiles y más eficientes.
El ISSN se utiliza en bibliotecas, centros de documentación y unidades de información para la identificación de títulos, el pedido y adquisición de publicaciones seriadas y el reclamo de entregas extraviadas.
El ISSN simplifica los trámites en los sistemas de préstamo interbibliotecario, en los reportes y listados de los catálogos colectivos.
El ISSN es altamente apropiado para el uso de la computadora en la actualización y el encadenamiento, la transmisión y suministro de datos sobre publicaciones seriadas.
El ISSN se utiliza en algunos países para el control en los sistemas de depósito legal, servicios postales y en los de codificación de barras.
El ISSN es la base para los códigos normalizados que están en desarrollo y que identificarán entregas de publicaciones seriadas y artículos de revistas en edición electrónica.
El ISSN al ser un código legible a simple vista, permite que estudiantes, investigadores, especialistas en información y bibliotecarios puedan citar una publicación seriada con precisión y sin equívocos.
¿Qué publicaciones pueden contar con el ISSN?
1. Impresos o folletos
2. Microformas
3. Ediciones con lenguajes especiales para discapacitados
4. Medios mixtos
5. Fonogramas
6. Cintas legibles por computadora diseñadas para producir listas
7. Otros medios incluidos los visuales
8. Revistas
¿Cómo debe aparecer el ISSN?
En el ángulo superior derecho de la portada o cubierta de cada uno de los fascículos de la publicación o en un lugar visible.
¿Cómo se calcula la clave de control?
Se asigna una ponderación a cada posición (de 8 a 2 en sentido decreciente) y se hace la suma de los productos así obtenidos. Se conserva el resto de la división euclídea de este número por 11. Se resta este número a 11: es la clave.
Ejemplo: ¿Para el número ISSN (de 7 cifras) ISSN 0395-203, cuál es la clave de control?
Ejemplo de cálculo de la clave de control
Código ISSN
0
3
9
5
2
0
3
Ponderación
8
7
6
5
4
3
2
Producto
0
21
54
25
8
0
6
Lo que hace un total de 114, cuyo resto de la división euclídea por 11 es 4. La clave de control es pues 11 - 4 = 7. El ISSN completo es: ISSN 0395-2037.


I (cont.)
Internet Blog Serial Number:
El IBSN (Internet Blog Serial Number; en castellano, Número de Serie de Blogs de Internet) nace el 2 de febrero de 2006, como respuesta a la negativa de la administración española para otorgar un número de ISSN a las bitácoras de Internet.
Diferencias entre el ISSN, el ISBN y el IBSN
El ISSN (International Standard Serial Number / Número Internacional Normalizado de Publicaciones Seriadas) y el ISBN (International Standard Book Number / Número Internacional Normalizado de Libros) son códigos numéricos de identificación. El ISSN, un número de ocho cifras, es el código internacional de identificación de las publicaciones seriadas (revistas, periódicos, boletines, anuarios, series de monografías...) y el ISBN, un número de diez cifras, identifica los libros.
El IBSN (Internet Blog Serial Number / Número de Serie de Blogs de Internet) consta también de diez cifras, e identifica los blogs (weblogs o cuadernos de bitácora) de Internet.
Normalización del IBSN
En la reunión de junio de 2006 del Comité 50 de normalización de AENOR se planteó la posibilidad de que Una Norma Española diera cobertura a esta iniciativa.

P
PMID:
PMID es el acrónimo de PubMed Identifier, más específicamente «PubMed Unique Identifier».
Es un número único asignado a cada cita de un articulo de revistas biomédicas y de ciencias de la vida que recoge PubMed.

U
Uniform Resource Identifier:
Uniform Resource Identifier, identificador uniforme de recurso, definido en RFC 2396 (Uniform Resource Identifiers: Generic Syntax). Algunos URI pueden ser URL, URN o ambos.
Un URI es una cadena corta de caracteres que identifica inequívocamente un recurso (servicio, página, documento, dirección de correo electrónico, enciclopedia, etc). Normalmente estos recursos son accesibles en una red o sistema.
Un URI consta de las siguientes partes:
Esquema: nombre que se refiere a una especificación para asignar los identificadores, e.g. urn:, tag:, cid:. En algunos casos también identifica el protocolo de acceso al recurso, por ejemplo http:, mailto:, ftp:.
Autoridad: elemento jerárquico que identifica la autoridad de nombres (por ejemplo //es.wikipedia.org).
Ruta: Información usualmente organizada en forma jerárquica, que identifica al recurso en el ámbito del esquema URI y la autoridad de nombres (e.g. /wiki/Uniform_Resource_Identifier).
Consulta: Información con estructura no jerárquica (usualmente pares "clave=valor") que identifica al recurso en el ámbito del esquema URI y la autoridad de nombres. El comienzo de este componente se indica mediante el carácter '?'.
Fragmento: Permite identificar una parte del recurso principal, o vista de una representación del mismo. El comienzo de este componente se indica mediante el carácter '#'.


ICT4D:
ICT4D son las siglas en inglés de Information and Communication Technologies for Development: Tecnologías de la Información y las Comunicaciones para el Desarrollo.
El término se refiere a la aplicación de las nuevas tecnologías en países en vías de desarrollo.
A
Acceso universal:
Acceso Universal (AU) es un término que puede utilizarse en todos los ámbitos de los servicios de interés público. Se refiere a una meta a conseguir: el acceso de toda la población a un servicio que puede ser tanto el agua potable, el suministro eléctrico, los servicios de salud, la enseñanza, como la telefonía básica, o Internet.
Acceso Universal y las TIC
Se ha hecho uso del término “Acceso Universal” extensivamente en el ámbito de las telecomunicaciones. El concepto se definió en los países desarrollados inicialmente como “Servicio Universal”, pensado como el interés de llegar a cada ciudadano con una línea telefónica. Pero esta idea no es válida aún en los países en desarrollo, donde hay cerca de un millón de ciudades o pueblos sin acceso a las ventajas de las Tecnologías de la Información y las comunicaciones (TIC).
En el objetivo número 8 de las metas del milenio de la ONU se hace referencia explícita a la necesidad de que todo ser humano aproveche las ventajas de las TIC. Se ha reconocido esta meta como un derecho humano más, sin el cual las personas quedarían cada vez más rezagadas en muchos ámbitos de su desarrollo. La aplicación de las TIC es tan amplia que puede impulsar proyectos o estrategias de todo tipo, es una herramienta transversal. En la mayoría de los países se ha desarrollado una política para conseguir avances hacia la meta del AU.
Alcance
Para garantizar la consecución de la política de AU se han de definir con precisión los grupos de población que serán favorecidos, los servicios que se incluirán, en qué condiciones (precios, calidad de servicio) y el plazo en que han de estar disponibles. Esta estrategia ha de ser coherente, justa e implementable.
Los sectores de población que han sido históricamente marginados de las TIC son los del ámbito rural (por el difícil acceso a las infraestructuras) y la población pobre en general (sin nivel adquisitivo que asegure el interés del mercado). En el siguiente cuadro quedan reflejados los espacios de mercado en los que han de ubicarse las políticas de acceso. Estas han de ajustarse a un estudio de mercado que les indique la zona realmente inviable para el sector privado, de forma que el estado nunca subvencione la infraestructura que deben desplegar los operadores existentes en el mercado. Para calcular estos límites se utilizan modelos como el Modelo Híbrido de Costos, utilizado entre otros por la Comisión Federal de Comunicaciones de los EEUU.
Asimismo, en la estrategia de AU se han de acordar los servicios que se prestarán, que pueden ser telefonía básica, telefonía pública inalámbrica o internet en telecentros, entre otros. El tiempo en que han de ser desplegados ha de atenerse también a un control estricto.
Ejemplos de aplicación de estas políticas son:
- México: Del 1990 al 1995 se obligó a Telmex en el momento de su privatización a instalar líneas telefónicas en todas las poblaciones de más de 500 habitantes, incrementar la densidad de teléfonos públicos de 0,8‰ a 5‰ y expandir la red (aumentar el número de líneas) al menos en un 12% anual.
- Cuba: ETECSA está obligada a llegar a las 1.125.000 líneas fijas, dar servicio a todos los centros de más de 300 habitantes y digitalizar el 90% de la red para el 2008.
- Chile: Gracias a la aplicación del Fondo de AU se estima que queda sólo cerca del 1% de la población sin acceso a telefonía básica. En 2003 se capacitaron 100.000 personas en el uso de las TIC dentro de la Campaña Nacional de Alfabetización Digital.
- Brasil: Obligación para las operadoras de telefonía fija de instalar teléfonos públicos en todas las localidades de más de 100 habitantes.
- Perú: Con aportaciones del fondo FITEL de AU se ha logrado reducir la distancia promedio a un teléfono público de 60 a 6 Km.
Financiación
Hay distintas formas de costear los programas de AU, el estado de cada país ha de elegir la vía más adecuada según sus propias condiciones político-económicas.
En la década de los 90 muchos países optaron por privatizar las compañías nacionales de telecomunicaciones y posteriormente abrir el mercado a la competencia. Se dejaba de ejercer un control directo sobre el sector, monopolizado por el estado, a cambio de dinamizar el despliegue de la red. Era necesaria entonces una estrategia nacional para el AU (que el mercado no asegura), establecer unas condiciones que defiendan un servicio público que es a su vez un derecho humano reconocido.
Estas condiciones impuestas forman parte del marco regulatorio. La reglamentación y regulación del mercado por parte del estado no sólo es vital para recaudar recursos de cara al AU, sino también para ejercer un control de precios, asegurar un marco de competencia adecuado, entre otros. En cada país se ha creado un ente regulador (ANATEL en Brasil, CNC en Argentina, SIT en Guatemala), y existen organizaciones regionales que fomentan la cooperación entre los reguladores nacionales de la región (Regulatel en América Latina, TRASA en el Sur de África, SATRC en el Sur de Asia) El mercado lucrativo de las telecomunicaciones puede abastecer (mediante un impuesto a los beneficios o licencia de actividad) de un fondo bastante más significativo y constante que muchas otras aportaciones. Por otro lado, el desarrollo de las redes puede ser redirigido en ocasiones según el interés público.
Para gestionar los esfuerzos de recaudación se han creado en muchos casos un Fondo para el AU, por ejemplo el Fondo para el Desarrollo de las Comunicaciones Rurales (RCDF) en Uganda, el Fondo de Inversión en Telecomunicaciones (FITEL) en Perú o el Fondo de Servicio Universal (FSU) en Venezuela. De estos fondos saldrán partidas presupuestarias para cubrir los programas y proyectos de AU de cada país.
Por otra parte existe la opinión de que la meta del AU, siendo un problema mundial, debe ser resuelta en ese marco. Se debe equilibrar a nivel mundial esta brecha redistribuyendo los recursos y el conocimiento del mundo desarrollado al resto. Para ello se decidió impulsar en la CMSI un fondo mundial para el AU, llamado “Fondo de Garantía Digital”. Hasta el momento su relevancia ha sido pobre. Los países desarrollados que participaron en su creación no acordaron una obligatoriedad de aportación. En el fondo, como siempre, existe un problema de voluntad política. Sin ella todo queda en grandes declaraciones.
Resumiendo, la financiación del AU se logra generalmente mediante una combinación de las siguientes alternativas:
1.- Obligaciones impuestas a los operadores por su participación en el mercado (desarrollo de red en zonas no rentables, o proyectos sin interés económico).
2.- Impuesto de actividad, (en muchos casos un 1% de los ingresos de los operadores).
3.- Subsidios cruzados, y otros métodos, incluyendo iniciativas de gobiernos locales, cooperativas, ONG e instituciones internacionales.

Críticas
Los fondos de AU en muchos casos no tienen el destino para el que fueron creados. En ocasiones esos fondos son desviados para atender otras urgencias o programas nacionales. En El Salvador, por ejemplo, existe un fondo común para los sectores de la electricidad y el de las telecomunicaciones, y la distribución de gastos se ha concentrado casi en absoluto en el primero.
En otros casos, el fondo de AU simplemente no se ha desembolsado durante años. En esta situación están incluidos Bolivia, Brasil, Ecuador, El Salvador, Nicaragua y Venezuela, donde el gasto ha sido “cero”. En el caso de Brasil (se han recaudado más de mil millones de dólares, cifra que según la UIT bastaría para conectar las poblaciones en el mundo aún sin acceso a las TIC), según una investigación, se detectó que el ministerio encargado decidió, antes que cumplir con el destino del fondo, hacerlo con las instituciones financieras internacionales, que exigen recortes fiscales.
La financiación del fondo, en algún caso, como el de Chile, se efectúa a cargo de los fondos públicos. Así, en vez de cargar ese gasto sobre las rentas del sector, el AU se paga con el bolsillo de cada chileno.
Aldea global:
Aldea global es un término posiblemente acuñado por el sociólogo canadiense Marshall McLuhan. Este concepto se refiere a la idea de que, debido a la velocidad de las comunicaciones, toda la sociedad humana comenzaría a transformarse, y su estilo de vida se volvería similar al de una aldea. Esto es, debido al progreso tecnológico, todos los habitantes del planeta empezaríamos a conocernos unos a otros y a intercomunicarnos de manera instantánea directamente.
Como paradigma de aldea global, McLuhan elige la televisión, un medio de comunicación de masas a nivel internacional, que en esa época empezaba a ser vía satélite.
El principio que impera en este concepto es el de un mundo interrelacionado, con estrechez de vínculos económicos, políticos y sociales, producto de las Tecnologías de la información y la comunicación (TIC), particularmente internet, como disminuidoras de las distancias y de las incomprensiones entre las personas y como promotoras de la emergencia de una conciencia global a escala planetaria, al menos en la teoría. Esta profunda interrelación entre todas las regiones del mundo originaría una poderosa red de dependencias mutuas y, de ese modo, se promovería tanto la solidaridad como la lucha por los mismos ideales, al nivel, por ejemplo, de la ecología y la economía, en pos del desarrollo sustentable de la Tierra, superficie y hábitat de esta aldea global.
Por otro lado, no deja de ser verdad que, como ya evidenciaba la teoría del efecto mariposa (teoría del caos), un acontecimiento en determinada parte del mundo tiene efectos a una escala global, como por ejemplo las fluctuaciones de los mercados financieros mundiales. En este sentido, el adjetivo global tendría algún sentido, pero a pesar de eso sería restringido.
Se trata de un concepto filosófico y utópico más que real. Como afirman muchos teóricos de la globalización y algunos críticos del concepto aquí discutido, el mundo está lejos de vivir en una "aldea" y mucho menos global: el concepto de aproximación de las personas en una aldea, en la cual todos se conocen y participan en la vida y en las decisiones comunitarias no se correlaciona con la sociedad contemporánea. Adicionalmente, partiendo de la idea de que el mundo está, de hecho interconectado, no deja de ser verdad que en esta aldea, de nombre tan utópico y optimista, muchos son excluídos (basta tener en cuenta el número de habitantes conectados a internet en algunas regiones africanas).
Para formar una idea de este concepto, es preciso, pues, considerar su ambivalencia: por un lado, saber que parte del presupuesto de una mayor aproximación entre las personas y de la consiguiente necesidad de una responsabilidad y responsabilización global; por otro lado, saber que es un concepto exclusivo y, como tal, excluyente.
Desarrollos Posteriores
A fines del 2007, un grupo de politicos conocidos a nivel internacional, argumentando que toda aldea necesita de aquellos que preservan en sus memorias las mejores aspiraciones de la comunidad, a fin de transmitirla a las nuevas generaciones, publico el siguiente comunicado:
El Día de los Derechos Humanos marcó el inicio de un año de celebraciónes por el 60 aniversario de la Declaración de los Derechos Humanos Universales. Como "Los Ancianos", nos comprometemos a crear conciencia acerca de esos Derechos Humanos y a poner de relieve la importancia continuada de la declaración en estos dias. Hace sesenta años, después de una devastadora guerra mundial, después del Holocausto y el primer uso de armas nucleares, la gente estaba a la búsqueda de elementos comunes para vincular a las naciones y aumentar la seguridad para todos los humanos. La declaración universal nos ofrece una visión de una humanidad común, de una responsabilidad mutua, compartida por cada uno. Desgracidamente, el mundo de hoy sigue estando marcado por las divisiones y poseido por temores. Hay nuevos genocidios. La discriminación contra las mujeres y las minorías continúa en muchos lugares. La pobreza atrapa miles de millones de personas en una vida de la desesperación. Desafios tales como el cambio climático, la falta de acceso a la salud y la escasez de empleo decente nos confrontan a todos. Debemos centrarnos de nuevo en la promoción de los valores de libertad, igualdad, solidaridad, tolerancia, el respeto y responsabilidad compartida, comun. La campaña "Todos tienen Derechos" (Every Human Has Rights) trabajará con la Sociedad Civil, las empresas y los organismos multilaterales para alentar medidas prácticas para hacer de los derechos humanos una realidad para todos. Y pedimos a todos los ciudadanos que defiendan los objetivos de la Declaración Universal en su vida cotidiana y a demandar responsabilidad y transparencia de los gobiernos. Con las tecnologías actuales, podemos transmitir el mensaje de los DDHH a los gobiernos y las personas en su vida diaria en formas inimaginables por los hombres y mujeres que redactaron la Declaración, formas que incluyen su firma de la declaración universal en TheElders.org y el conpartir sus historias. Hace más de medio siglo atrás, en el artículo 1º de la Declaración proclamó que todos los seres humanos nacen libres e iguales en dignidad y en derechos. Esa afirmación es tan significativa y tan importante hoy como lo era el día en que fue aprobada. Tomemos nuestro derecho de nacimiento en nuestras propias manos y transformemos esa declaración en realidad universal.
Firmado: Desmond Tutu, Kofi Annan, Ela Bhatt, Lakhdar Brahimi, Gro Harlem Brundtland, Jimmy Carter, Graça Machel y Mary Robinson por Los Ancianos([1] )

Atos Origin:
Atos Origin S.A. (Euronext: ATO) es una consultora tecnológica que opera en más de 50 países, con unos 47.000 empleados.
La sede de la empresa se encuentra en París, Francia y Ámsterdam, Países Bajos. Atos Origin está registrada en Francia y cotiza en el Euronext París. Su CEO es Philippe Germond.
En España el grupo Atos Origin esta compuesto por las siguientes empresas Infoservicios S.A., Centro de Tecnologías Informáticas S.A., Mundivía S.A. y Atos Origin Consulting Canarias S.A
Historia
1976 - Se funda la compañía tecnológica BSO por el excentrico hombre de negocios holandés Eckart Wintzen.
1990 - BSO se fusiona con PASS, división de la empresa Philips, formando BSO/Origin.
1991 - Segin, SITB y Sodinforg se unen para crear Axime.
Enero 1996 - Origin B.V. compañía tecnológica formada por la unión de BSO y la división Philips C&P (Communications & Processing).
1997 - Atos compañía tecnológica fundada en Francia, de la fusión de las empresas Axime y Sligos.
Octubre 2000 - Atos Origin fundada en Francia de la unión de Atos y Origin B.V..
Agosto 2002 - Atos Origin adquiere KPMG Consulting en Reino Unido y Países Bajos.
2004 - Atos Origin adquiere Sema, la división de servicio IT de Schlumberger.
2004 - Atos Origin crea una nueva filial llamada Atos Worldline.
2004 - Atos Origin absorbe la división de infraestructura ITELLIUM, un filial de KarstadtQuelle.
2004 - Atos Origin elimina KPMG del nombre de su filial de consultoría, que se convierte en Atos Consulting.

C
Computer Telephony Integration:
Computer telephony integration (CTI, Integración de telefonía y ordenador) es el término inglés que se da a un sistema informático destinado a la interacción entre una llamada telefónica y las acciones en un ordenador, de manera integrada y coordinada. Como los canales se han expandido de la voz, englobando actualmente el email, la web (chat) y el fax, SMS, etc. el término CTI se ha ampliado también a todos los canales de relación con el cliente de una empresa. Los mecanismos actuales de CTI facilitar la gestión de todos estos canales de manera unificada.
Las interacciones registradas en el CTI pueden ser atendidas automáticamente si existen procesos predefinidos para ello o bien con el soporte manual de un agente, también llamado teleoperador. Los sistemas CTI disponen de funciones adicionales como son identificación de llamadas (quién es el cliente iniciador de la comunicación) o enrutamiento de llamadas (por ejemplo, en función de criterios geográficos o de negocio redirigir la llamada a un agente u otro) que facilitan la trazabilidad de los contactos realizados con los clientes y la automatización de tareas.
Funciones habituales
Las siguientes funciones pueden ser implementadas usando CTI:
Información sobre la llamada (número origen (ANI), numero marcado (DNIS), completado de información sobre el cliente).
Marcación automática y control informatizado (control de campañas, marcado predictivo, marcado previsualizado).
Control de posiciones de Call Center: hablando,sonando,conferencias,registro en el sistema,etc.
Transferencia de llamadas con datos adjuntos (p.e. los datos que ha recibido o rellenado un agente pueden ser pasado a aotro agente cuando se le transfiere la llamada)
Funciones avanzadas como enrutamiento de llamadas, funciones de informes, automatización de procesos, mezcla multicanal (peticiones por teléfono, e-mail y web).
Control del estado del agente (disponible,trabajo administrativo post-llamada,descanso)
Monitorización de la calidad del servicio y grabado de llamadas.
Flujo de eventos CTI
Una apliación típica CTI gestiona el flujo de que es generado por la centralita de telefonía durante el ciclo de vida de una llamada. Este habitualmente sigue esta secuencia:
Conexión
Envío (ring)
Establecimeinto (respuesta)
Cierre (colgado)
Fin
Otros eventos de llamada que pueden ser manejados por una solución típica de CTI son:
En espera (hold)
Vuelta de hold
Conferencia
Transferencia
Reenvío
Las aplicaciones CTI manejan evento realacionados con las centralitas inteligentes tales como:
Agente resgistrado
Agente disponible
Agente no disponible

Consultoría tecnológica:
La consultoría tecnológica es un campo que se enfoca en aconsejar a otras empresas cómo usar las tecnologías de la información para conseguir sus objetivos empresariales. Adicionalmente, implementan, instalan y administran los sistemas informaticos Outsourcing
La industria de la consultoría tecnológica puede verse como un sistema de tres capas:
Firmas de Servicios profesionales que mantienen una plantilla especializada y cobran tarifas altas.
Subcontratación, llamado últimamente de forma eufemística Body shop. Debido a que los clientes ya no quieren contratar a nuevo personal, esto cada vez es más frecuente.
Consultores independientes y autónomos.
El límite entre la consultoría de gestión y administración y la consultoría tecnológica esta poco clara. Hay veces que se solapan pero normalmente los consultores tecnológicos tienen titulaciones en informática y tecnología en general mientras que los de gestión tienen titulaciones de contabilidad, economía o finanzas.
Lista de firmas de consultoría
Las siguientes son una lista de las empresas de consultoría tecnológica más grandes del mundo por número de consultores. Para algunas este número no coincide con el número de empleados, ya que solo refleja a los consultores.
Norteamérica
Accenture (Nueva York, NY) (106,000)
Capgemini (Nueva York, NY) (55,000)
Electronic Data Systems (EDS) (Plano, TX) (132,000)
Asia
Infosys Technologies Ltd. (Bangalore, India) (43,000)
Europa
Atos Origin (Hoofddorp, Países Bajos) (47.000)
Alemania
T-Systems (Berlin, Germany) (52.000)
España
Everis (Madrid, España) (antes DMR Consulting) (5.000)
Indra (Madrid, España) (más de 19.500)
Insa (Madrid, España) (2.000)
Produban (Madrid, España)

Criptografía:
La criptografía (del griego κρύπτω krypto, «ocultar», y γράφω graphos, «escribir», literalmente «escritura oculta») es el arte o ciencia de cifrar y descifrar información utilizando técnicas que hagan posible el intercambio de mensajes de manera segura que sólo puedan ser leídos por las personas a quienes van dirigidos.
Con más precisión, cuando se habla de esta área de conocimiento como ciencia se debería hablar de criptología, que engloba tanto las técnicas de cifrado, la criptografía propiamente dicha, como sus técnicas complementarias: el criptoanálisis, que estudia los métodos que se utilizan para romper textos cifrados con objeto de recuperar la información original en ausencia de las claves.
Finalidad
La finalidad de la criptografía es, en primer lugar, garantizar el secreto en la comunicación entre dos entidades (personas, organizaciones, etc.) y, en segundo lugar, asegurar que la información que se envía es auténtica en un doble sentido: que el remitente sea realmente quien dice ser y que el contenido del mensaje enviado, habitualmente denominado criptograma, no haya sido modificado en su tránsito..
Otro método utilizado para ocultar el contenido de un mensaje es ocultar el propio mensaje en un canal de información, pero en puridad, esta técnica no se considera criptografía, sino esteganografía. Por ejemplo, mediante la esteganografía se puede ocultar un mensaje en un canal de sonido, una imagen o incluso en reparto de los espacios en blanco usados para justificar un texto. La esteganografía no tiene porqué ser un método alternativo a la criptografía, siendo común que ambos métodos se utilicen de forma simultánea para dificultar aún más la labor del criptoanalista.
En la actualidad, la criptografía no sólo se utiliza para comunicar información de forma segura ocultando su contenido a posibles fisgones. Una de las ramas de la criptografía que más ha revolucionado el panorama actual de las tecnologías informáticas es el de la firma digital: tecnología que busca asociar al emisor de un mensaje con su contenido de forma que aquel no pueda posteriormente repudiarlo.
Conceptos
En la Jerga de la criptografía, la información original que debe protegerse se denomina texto en claro. El cifrado es el proceso de convertir el texto plano en un galimatías ilegible, denominado texto cifrado o criptograma. Por lo general, la aplicación concreta del algoritmo de cifrado (también llamado cifra) se basa en la existencia de una clave: información secreta que adapta el algoritmo de cifrado para cada uso distinto. Cifra es una antigua palabra arábiga para designar el número cero; en la antigüedad cuando Europa empezaba a cambiar del sistema de numeración romano al arábigo, se desconocía el cero por lo que este resultaba misterioso, de ahí probablemente que cifrado signifique misterioso
Las dos técnicas más sencillas de cifrado, en la criptografía clásica, son la sustitución (que supone el cambio de significado de los elementos básicos del mensaje -las letras, los dígitos o los símbolos-) y la trasposición (que supone una reordenación de los mismos); la gran mayoría de las cifras clásicas son combinaciones de estas dos operaciones básicas.
El descifrado es el proceso inverso que recupera el texto plano a partir del criptograma y la clave. El protocolo criptográfico especifica los detalles de cómo se utilizan los algoritmos y las claves (y otras operaciones primitivas) para conseguir el efecto deseado. El conjunto de protocolos, algoritmos de cifrado, procesos de gestión de claves y actuaciones de los usuarios, en conjunto es lo que constituyen un criptosistema, que es con lo que el usuario final trabaja e interactúa.
Existen dos grandes grupos de cifras: los algoritmos que utilizan una única clave tanto en el proceso de cifrado como en el de descifrado, y los que utilizan una clave para cifrar mensajes y una clave distinta para descifrarlos. Los primeros se denominan cifras simétricas, de clave simétrica o de clave privada y son la base de los algoritmos de cifrado clásico. Los segundos se denominan cifras asimétricas, de clave asimétrica o de clave pública y forman el núcleo de las técnicas de cifrado modernas.
En el lenguaje cotidiano, la palabra código se usa de forma indistinta con cifra. En la jerga de la criptografía, sin embargo, el término tiene un uso técnico especializado: los códigos son un método de criptografía clásica que consiste en sustituir unidades textuales más o menos largas o complejas, habitualmente palabras o frases, para ocultar el mensaje; por ejemplo, "cielo azul" podría significar "atacar al amanecer". Por el contrario, las cifras clásicas normalmente sustituyen o reordenan los elementos básicos del mensaje -letras, dígitos o símbolos-; en el ejemplo anterior, "rcnm arcteeaal aaa" sería un criptograma obtenido por transposición. Cuando se usa una técnica de códigos, la información secreta suele recopilarse en un libro de códigos.
Con frecuencia los procesos de cifrado y descifrado se encuentran en la literatura como encriptado y desencriptado, aunque ambos son neologismos -anglicismos de los términos ingleses encrypt y decrypt- todavía sin reconocimiento académico. Hay quien hace distinción entre cifrado/descifrado y encriptado/desencriptado según estén hablando de criptografía simétrica o asimétrica, pero la realidad es que la mayoría de los expertos hispanohablantes prefieren evitar ambos neologismos hasta el punto de que el uso de los mismos llega incluso a discernir a los aficionados y novatos en la materia de aquellos que han adquirido mas experiencia y profundidad en la misma.
Historia de la criptografía
Artículo principal: Historia de la criptografía
La historia de la criptografía es larga y abunda en anécdotas. Ya las primeras civilizaciones desarrollaron técnicas para enviar mensajes durante las campañas militares de forma que si el mensajero era interceptado la información que portaba no corriera el peligro de caer en manos del enemigo. Posiblemente, el primer criptosistema que se conoce fuera documentado por el historiador griego Polibio: un sistema de sustitución basado en la posición de las letras en una tabla. También los romanos utilizaron sistemas de sustitución, siendo el método actualmente conocido como César, porque supuestamente Julio César lo utilizó en sus campañas, uno de los más conocidos en la literatura (según algunos autores, en realidad Julio César no utilizaba este sistema de sustitución, pero la atribución tiene tanto arraigo que el nombre de éste método de sustitución ha quedado para los anales de la historia). Otro de los métodos criptográficos utilizados por los griegos fue la escitala espartana, un método de trasposición basado en un cilindro que servía como clave en el que se enrollaba el mensaje para poder cifrar y descifrar.
En 1465 el italiano Leon Battista Alberti inventó un nuevo sistema de sustitución polialfabética que supuso un gran avance de la época. Otro de los criptógrafos más importantes del siglo XVI fue el francés Blaise de Vigenere que escribió un importante tratado sobre "la escritura secreta" y que diseñó una cifra que ha llegado a nuestros días asociada a su nombre. A Selenus se le debe la obra criptográfica "Cryptomenytices et Cryptographiae" (Lüneburg, 1624). Durante los siglos XVII, XVIII y XIX, el interés de los monarcas por la criptografía fue notable. Las huestes de Felipe II utilizaron durante mucho tiempo una cifra con un alfabeto de más de 500 símbolos que los matemáticos del rey consideraban inexpugnable. Cuando el matemático francés François Viète consiguió criptoanalizar aquel sistema para el rey de Francia, a la sazón Enrique IV, el conocimiento mostrado por el rey francés impulsó una queja de la corte española ante del papa Pío V acusando a Enrique IV de utilizar magia negra para vencer a sus ejércitos. Por su parte, la reina María Estuardo, reina de los Escoceses, fue ejecutada por su prima Isabel I de Inglaterra al descubrirse un complot de aquella tras un criptoanálisis exitoso por parte de los matemáticos de Isabel.
Desde el siglo XIX y hasta la Segunda Guerra Mundial las figuras más importantes fueron la del holandés Auguste Kerckhoffs y la del prusiano Friedrich Kasiski. Pero es en el siglo XX cuando la historia de la criptografía vuelve a presentar importantes avances. En especial durante las dos contiendas bélicas que marcaron al siglo: la Gran Guerra y la Segunda Guerra Mundial. A partir del siglo XX, la criptografía usa una nueva herramienta que permitirá conseguir mejores y más seguras cifras: las máquinas de cálculo. La más conocida de las máquinas de cifrado, posiblemente sea la máquina alemana Enigma: una máquina de rotores que automatizaba considerablemente los cálculos que era necesario realizar para las operaciones de cifrado y descifrado de mensajes. Para vencer al ingenio alemán, fue necesario el concurso de los mejores matemáticos de la época y un gran esfuerzo computacional. No en vano, los mayores avances tanto en el campo de la criptografía como en el del criptoanálisis no empezaron hasta entonces.
Tras la conclusión de la Segunda Guerra Mundial, la criptografía tiene un desarrollo teórico importante; siendo Claude Shannon y sus investigaciones sobre teoría de la información esenciales hitos en dicho desarrollo. Además, los avances en computación automática suponen tanto una amenaza para los sistemas existentes como una oportunidad para el desarrollo de nuevos sistemas. A mediados de los años 70 el Departamento de Normas y Estándares norteamericano publica el primer diseño lógico de un cifrador que estaría llamado a ser el principal sistema criptográfico de finales de siglo: el Estándar de Cifrado de Datos o DES. En esas mismas fechas ya se empezaba a gestar lo que sería la, hasta ahora, última revolución de la criptografía teórica y práctica: los sistemas asimétricos. Estos sistemas supusieron un salto cualitativo importante ya que permitieron introducir la criptografía en otros campos que hoy día son esenciales, como el de la firma digital.
Véase también
Criptografía simétrica o convencional
Criptografía asimétrica o de clave pública
Criptografía de curva elíptica
Criptografía híbrida
Firma digital
Esteganografía
Criptoanálisis
Infraestructura de clave pública
Especificaciones PKCS
Atbash
Test de primalidad
Algoritmos
AES
RSA
DES / TripleDES
IDEA
TEA / XTEA
ARC4
DSA
ECDSA
Enigma
Protocolos
TLS
SSL
SET
OpenPGP
DSS
SSH
Aplicaciones
Software
PGP
GnuPG
John the Ripper
Voto electrónico
Pagos electrónicos
Transacciones seguras
Monedero electrónico


F
Fundación CTIC:
La Fundación CTIC (Centro Tecnológico de la Información y la Comunicación) es una organización privada sin ánimo de lucro asturiana promovida por el Gobierno del Principado de Asturias en colaboración de un grupo de empresas del sector de las Tecnologías de la Información y la Comunicación. Cuenta con un modelo de financiación mixto.
La misión de la fundación es desarrollar la Sociedad de la Información en Asturias asesorando, promoviendo, dinamizando, investigando, implantando y aglutinando iniciativas relacionadas con las TIC, tanto en entidades públicas como en empresas privadas. Para ello, la fundación tiene entre sus funciones realizar actividades de:
Difusión
Promoción
Dinamización
Formación
Diseño de estrategias
Investigación
Gestión y desarrollo de proyectos tecnológicos
Transferencia tecnológica
La Fundación CTIC es experta en la gestión de proyectos de sociedad de la información y en la prestación de servicios en accesibilidad web y calidad en la construcción de arquitecturas estandarizadas. Así mismo realiza investigaciones en tres campos: movilidad e independencia de dispositivo, web semántica y accesibilidad universal.
Fundación CTIC alberga la oficina española de W3C. Un amplio grupo de investigadores participa en los grupos de trabajo e investigación para la creación de estándares para el web en w3c.

I

Indra Sistemas:
Indra Sistemas S.A. (BME: IDR) es una compañía multinacional de capital español, del sector de las Tecnologías de la Información, sistemas de defensa, sistemas electrónicos, transporte y consultoría tecnológica. A finales de 2007 tenía una plantilla de más de 20.000 empleados tras la absorción, realizada ese mismo año, de Soluziona y Azertia, entre otras. El banco Citigroup estima que Indra elevará un 27,4% su beneficio en 2008 y que su facturación ascenderá a 2.394,1 millones de euros a cierre del año.[1]
Indra dispone también de oficinas en Barcelona en el distrito tecnológico 22@ y cuenta con centros de excelencia en las siguientes áreas: sistemas de seguridad, sistemas de comunicaciones y navegación por satélite y consultoría. A principios del 2004 entró en servicio el nuevo Centro de Servicios de Producción de Outsourcing que atiende a la cartera de clientes en esta área de negocio en Cataluña, entre los que destacan Diesel Ibérica, Metro de Barcelona, central nuclear de Ascó y Vandellós, Bankpyme, Areas y Forum Universal de las Culturas 2004.
Electrónica militar
Indra es la tercera empresa militar española por facturación, y la primera de electrónica militar. Está presente en los principales programas de armamento del ejército español, siendo uno de los principales factores a la hora de presionar al alza el presupuesto militar del estado español. Además suministra equipos a gobiernos de los cinco continentes, siendo el principal suministrador extranjero de la armada estadounidense. Entre otras cosas proporciona dispositivos esenciales para los aviones de combate F-18 (protagonistas del bombardeo de Irak) y otros vehículos de combate.
Vigilancia electrónica
En 2005, Indra obtuvo un contrato para participar en los Sistemas Integrales de Vigilancia Exterior (SIVE) de la Guardia Civil. Se trata de un sistema electrónico destinado a la vigilancia fronteriza y, muy especialmente, a controlar la inmigración ilegal y el narcotráfico, en el caso de Indra, en Huelva, Gran Canaria y Almería.[2] Esta tecnología aporta información en tiempo real a los Centros de Dirección y posibilita la transmisión de las órdenes necesarias para interceptación y el control inmediato de cualquier elemento susceptible de entrar ilegalmente en el territorio español.
En abril de 2008, la empresa hizo público que el Ministerio del Interior de España le había adjudicado la instalación de los SIVE de Murcia e Ibiza y la ampliación del ya existente en Almería. El Consejo de Ministros aprobó un contrato el 18 de abril por un valor de 15 millones de euros que conlleva el suministro de estaciones sensoras completas y de un Centro de Mando y Control para centralizar y procesar la información. Con estos sistemas, más de mil kilómetros de la costa española estarán controlados por la tecnología de Indra. La multinacional también ha implantado SIVEs en Hong-Kong y Letonia[3]
Indra también desarrolla sistemas de videovigilancia e instala cámaras de seguridad en espacios urbanos. Por ejemplo, actualmente está desarrollando un proyecto para el Ayuntamiento de Sevilla en las calles, centros comerciales abiertos y polígones industriales de la ciudad.[4]
Tecnología 'e-counting'
Otra de las áreas de negocio de Indra es el de los sistemas informáticos para recuento de votos. Su tecnología 'e-counting' ha sido utilizada en más de 250 elecciones en todo el mundo, en países como España, Francia, Noruega, Portugal, Estados Unidos, Argentina, Colombia o Ecuador.[5] En las Elecciones generales españolas de 2008 implementó el uso de PDAs para agilizar el proceso al automatizar el envío de los datos desde las mesas de los colegios electorales al centro de recepción de información.[6]
Productos de comunicación
Indra comercializa el producto Editran [7] , una suite de comunicaciones con seguridad integrada y funciones específicas adaptadas al envío seguro de volúmenes de datos entre empresas. Es usado fundamentalmente por empresas grandes y bancos, y por la Administración pública. Sus características principales son:
Funcionalidades adaptadas a la Administración Pública, Banco de España y otros organismos oficiales.
Modularidad, existiendo para varios sistemas como Z/OS, AS/400 y Windows.
Seguridad integrada
Accionistas
A día de hoy, sus accionistas principales son:
Caja Madrid, 13,33%.
Unión Fenosa, 11,0%.
Fidelity Internacional Ltd, 4,84% - 01/02/07.
Barclays Bank Plc, 4,58% - 21/11/05.
CajAstur, 5,00% - 28/03/07.
Casa Grande de Cartagena, S.L., 4,45% - 22/11/06


I (cont.)
Informática de negocios:
Informatica de Negocios es una disciplina que combina tecnologías de información o informática, con conceptos administrativos. Esta disciplina fue creada en Alemania, tomada del concepto “Wirtschaftsinformatik". Esta disciplina académica exitosamente establecida que incluye estudios de bachillerato, master y programas de diplomados en Alemania, Austria y Suiza. El termino Informática de Negocios actualmente es muy común en Europa Central. Inteligencia de Negocios tiene fuertes efectos de integración uniendo realmente conceptos de administración de negocios y de la ciencia de tecnología computacional en un solo campo.

Diferencias entre informatica de negocios y sistemas de información.
La Informática de Negocios muestra numerosas similitudes con la disciplina de Sistemas de Información que pueden encontrarse principalmente en partes del mundo de habla inglesa. Sin embargo existen algunas diferencias notables que hacen que la Informática de Negocios sea más atractiva para los empleados:
1. La Informática de Negocios incluye tecnologías de información, así como porciones relevantes de la ciencia computacional aplicada, aun más extensas si se compara con los Sistemas de Información. 2. La Informática de Negocios tiene significantes características constructivas que se enfocan en el desarrollo de soluciones para los problemas de negocios que van más allá de solo describirlos.
Por otra parte, los sistemas de información se enfocan fuertemente en explicar de una forma el fenómeno empírico del mundo real. Los Sistemas de Información a menudo son llamados “orientados a explicar” contrastando con “orientados a solucionar” de la Informática de Negocios. Los investigadores de los Sistemas de Información intentan explicar porque las cosas en el mundo real son de la forma que son y conducen a muchas inspecciones empíricas, mientras que un investigador de Inteligencia de Negocios intenta desarrollar soluciones mediante tecnologías de Información, para problemas que ellos han observado o asumido. Académicos en Informática de Negocios, por ejemplo, a menudo gustan de aplicar nuevas tecnologías hacia los problemas de negocios realizando estudios factibles y construyendo prototipos de software. Los estudiantes de Informática de Negocios además tienen un acercamiento constructivo. Su habilidad no solo explica la realidad, además le da forma, esto es lo que los hace empleados más atractivos para las compañías al igual que buenos candidatos en el campo de los negocios de tecnologías de Información.
Las conexiones fuertes entre investigar y enseñar es otra tradición de los Informaticos de negocios. Proyectos de investigación se han vuelto parte de la curricula totalmente de forma rápida, debido a que muchos investigadores son al mismo tiempo conferencistas. El progreso científico y tecnológico en Inteligencia de Negocios ha sido completamente rápido, por consiguiente los sujetos están bajo permanente reconsideración y revisión.

Estudiando Informatica de Negocios
Un numero de programas de estudios y postgrados en lenguaje ingles conducen directamente al grado de maestría en Informática de Negocios. Algunos ejemplos son:
Maestría en Informática de Negocios a nivel Internacional (MBI) de la Universidad Virtual Global. Licenciatura y maestría de Ciencias en Informática de Negocios de la Universidad de Rostock. Maestría de Informática de Negocios de la Universidad de Utrecht. Maestría de Informática de Negocios de la Universidad de Canberra. Maestría en Ciencias de Tecnología de Informática de Negocios (BIT) de la Universidad de Middlesex en Londres.
Muchas universidades en Alemania, Austria, y Suiza ofrecen programas equivalentes en Alemán, que llevan a conseguir un grado de (Licenciatura/Diplomado/Maestria) in "Wirtschaftsinformatik", por ejemplo:
Universidad de Münster Universidad de Westphalian Wilhelms (WWU) en Alemania. Universidad de Linz en Austria. Universidad de St. Gallen en Suiza.
Universidades rusas han comenzado a ofrecer programas equivalentes en ruso desde el 2002:
Licenciatura y maestría en Ciencias de Informática de Negocios de la Universidad del Estado, Escuela Superior de Economía en Moscú.

Investigación
Centro de investigación para Sistemas de Información, Universidad de Münster y compañías e instituciones asociadas de investigación.

Information Technology Infrastructure Library:
La Information Technology Infrastructure Library (‘Biblioteca de Infraestructura de Tecnologías de Información’), frecuentemente abreviada ITIL, es un marco de trabajo de las mejores prácticas destinadas a facilitar la entrega de servicios de tecnologías de la información (TI) de alta calidad. ITIL resume un extenso conjunto de procedimientos de gestión ideados para ayudar a las organizaciones a lograr calidad y eficiencia en las operaciones de TI. Estos procedimientos son independientes del proveedor y han sido desarrollados para servir de guía para que abarque toda infraestructura, desarrollo y operaciones de TI.
Aunque se desarrolló durante los años 1980, ITIL no fue ampliamente adoptada hasta mediados de los años 1990. Esta mayor adopción y conocimiento ha llevado a varios estándares, incluyendo ISO/IEC 20000, que es una norma internacional cubriendo los elementos de gestión de servicios de TI de ITIL. ITIL se considera a menudo junto con otros marcos de trabajo de mejores prácticas como la Information Services Procurement Library (ISPL, ‘Biblioteca de adquisición de servicios de información’), la Application Services Library (ASL, ‘Biblioteca de servicios de aplicativos’), el método de desarrollo de sistemas dinámicos (DSDM, Dynamic Systems Development Method), el Modelo de Capacidad y Madurez (CMM/CMMI) y a menudo se relaciona con la gobernanza de tecnologías de la información mediante COBIT (Control Objectives for Information and related Technology).
El concepto de gestión de servicios de TI, aunque relacionado con ITIL, no es idéntico: ITIL contiene una sección específicamente titulada «Gestión de Servicios de TI» (la combinación de los volúmenes de Servicio de Soporte y Prestación de Servicios, que son un ejemplo específico de un marco ITSM). Sin embargo es importante señalar que existen otros marcos parecidos. La Gestión de Servicio ITIL está actualmente integrado en el estándar ISO 20000 (anterior BS 15000).
ITIL se construye en torno a una vista basada en proceso-modelo del control y gestión de las operaciones a menudo atribuida a W. Edwards Deming. Las recomendaciones de ITIL fueron desarrolladas en los años 1980 por la Central Computer and Telecommunications Agency (CCTA) del gobierno británico como respuesta a la creciente dependencia de las tecnologías de la información y al reconocimiento de que sin prácticas estándar, los contratos de las agencias estatales y del sector privado creaban independientemente sus propias prácticas de gestión de TI y duplicaban esfuerzos dentro de sus proyectos TIC, lo que resultaba en errores comunes y mayores costes.
ITIL fue publicado como un conjunto de libros, cada uno dedicado a un área específica dentro de la Gestión de TI. Los nombres ITIL e IT Infrastructure Library (‘Biblioteca de infraestructura de TI’) son marcas registradas de la Office of Government Commerce (‘Oficina de comercio gubernamental’, OGC), que es una división del Ministerio de Hacienda del Reino Unido.
En abril de 2001 la CCTA fue integrada en la OGC, desapareciendo como organización separada.[1]
En diciembre de 2005, la OGC emitió un aviso de una actualización a ITIL,[2] conocida comúnmente como ITIL v3, que estuvo planificada para ser publicada a finales de 2006; habiendo sido realizada en junio 2007. Se esperaba que la publicación de ITIL versión 3 incluya cinco libros principales, concretamente: Diseño de Servicios de TI, Introducción de los Servicios de TI, Operación de los Servicios de TI, Mejora de los Servicios de TI y Estrategias de los Servicios de TI, consolidando buena parte de las prácticas actuales de la versión 2 en torno al Ciclo de Vida de los Servicios.
Uno de los principales beneficios propugnado por los defensores de ITIL dentro de la comunidad de TI es que proporciona un vocabulario común, consistente en un glosario de término precisamente definidos y ampliamente aceptados. Un nuevo glosario ampliado ha sido desarrollado como entregable clave de ITIL versión 3.
Certificación .
Los particulares pueden conseguir varias certificaciones oficiales ITIL. Los estándares de calificación ITIL son gestionados por la ITIL Certification Management Board (ICMB) que agrupa a la OGC, a itSMF International y a los dos Institutos Examinadores existentes: EXIN (con sede en los Países Bajos) e ISEB (con sede en el Reino Unido).
Existen tres niveles de certificación ITIL para profesionales:
1. Foundation Certificate (Certificado Básico): acredita un conocimiento básico de ITIL en gestión de servicios de tecnologías de la información y la comprensión de la terminología propia de ITIL. Está destinado a aquellas personas que deseen conocer las buenas prácticas especificadas en ITIL.
2. Practitioner's Certificate (Certificado de Responsable): destinado a quienes tienen responsabilidad en el diseño de procesos de administración de departamentos de tecnologías de la información y en la planificación de las actividades asociadas a los procesos.
3. Manager's Certificate (Certificado de Director): garantiza que quien lo posee dispone de profundos conocimientos en todas las materias relacionadas con la administración de departamentos de tecnologías de la información, y lo habilita para dirigir la implantación de soluciones basadas en ITIL.
No es posible certificar una organización o sistema de gestión como «conforme a ITIL», pero una organización que haya implementado las guías de ITIL sobre Gestión de los Servicios de TI puede lograr certificarse bajo la ISO/IEC 20000.
La versión 3 de ITIL, que apareció en junio de 2007, cambió ligeramente el esquema de Certificaciones, existiendo certificaciones puentes, se definen 3 niveles:
1. Basic Level (Equivalente a ITIL Foundation en v2)
2. Management and Capability Level (Equivalente a los niveles Practitioner y Manager en ITIL v2)
3. Advanced Level (nuevo en v3)
Historia y precursores de ITIL
Lo que actualmente se conoce como ITIL versión 1, desarrollada bajo el auspicio de la CCTA, se tituló Government Information Technology Infrastructure Method (‘Método de Infraestructura de la Tecnología de Información del Gobierno’, GITM) y durante varios años terminó expandiéndose hasta unos 31 libros dentro de un proyecto inicialmente dirigido por Peter Skinner y John Stewart. Las publicaciones fueron retituladas principalmente como resultado del deseo (por Roy Dibble de la CCTA) de que fueran vistas como una guía y no como un método formal, y como resultado del creciente interés que había fuera del gobierno británico.
Muchos de los conceptos principales de gestión de servicios no surgieron dentro del proyecto inicial de la CCTA para desarrollar ITIL. IBM afirma que sus Yellow Books (A Management System for the Information Business, ‘Un sistema de gestión para el negocio de la información’)[3] [4] fueron precursores claves. Según IBM:
A principios de los años 1980, IBM documentó los conceptos originales de Gestión de Sistemas en una serie de cuatro volúmenes titulada A Management System for Information Systems (sic). Estos ampliamente aceptados yellow books [...] fueron aportaciones claves para el conjunto originales de libros de ITIL.[5] [6]
Otras publicaciones de IBM y comentarios de los autores de ITIL aclaran que los yellow books fueron cruciales para el desarrollo del Servicio de Soporte pero que el volumen de Entrega de Servicios no tomó prestado de ellos hasta tales extremos.
Críticas a ITIL
ITIL ha recibido críticas de varios frentes. Entre ellas:
El hecho de que muchos defensores de ITIL parecen creer que es un marco holístico y completo para el gobierno de TI.
Su tendencia a convertirla en una religión.
Como señala Jan van Bon (autor y editor de muchas publicaciones de Gestión de Servicios de TI):
Hay mucha confusión sobre ITIL, procedente de todo tipo de malentendidos sobre su naturaleza. ITIL, como afirma la OGC, un conjunto de buenas prácticas. La OGC no afirma que dichas mejoras prácticas describan procesos puros, ni tampoco que ITIL sea un marco diseñado como un modelo coherente. Eso es lo que la mayoría de sus usuarios hacen de ella, probablemente porque tienen una gran necesidad de dicho modelo.[7]
El columnista CIO Magazine Dean Meyer también ha expuesto algunos puntos de vista cautelosos sobre ITIL,[8] incluyendo cinco trampas típicas tales como «convertirse en esclavo de definiciones desactualizadas» y «dejar que ITIL se convierta en religión». Como Meyer señala, ITIL «no describe el abanico completo de procesos necesarios para ser líderes. Se centra en [...] gestionar servicios actuales.»
La calidad de los volúmenes de la biblioteca se considera desigual. Por ejemplo, van Herwaarden y Grift señalan que «la consistencia que caracterizaba los procesos de soporte al servicio [...] se pierde en gran medida en los libros de entrega de servicio.»[9]
Visión general de la biblioteca
La biblioteca de infraestructura de TI (ITIL) toma este nombre por tener su origen en un conjunto de libros, cada uno dedicado a una práctica específica dentro de la gestión de TI. Tras la publicación inicial de estos libros, su número creció rápidamente (dentro la versión 1) hasta unos 30 libros. Para hacer a ITIL más accesible (y menos costosa) a aquellos que deseen explorarla, uno de los objetivos del proyecto de actualización ITIL versión 2 fue agrupar los libros según unos conjuntos lógicos destinados a tratar los procesos de administración que cada uno cubre. De esta forma, diversos aspectos de los sistemas de TIC, de las aplicaciones y del servicio se presentan en conjuntos temáticos. Actualmente existe la nueva versión ITIL v3 que fue publicada en mayo de 2007.
Aunque el tema de Gestión de Servicios (Soporte al Servicio y Entrega de Servicios) es el más ampliamente difundido e implementado, el conjunto de mejores prácticas ITIL provee un conjunto completo de prácticas que abarca no sólo los procesos y requerimientos técnicos y operacionales, sino que se relaciona con la gestión estratégica, la gestión de operaciones y la gestión financiera de una organización moderna.
Los ocho libros de ITIL y sus temas son:
Gestión de Servicios de TI
1. Provisión de Servicios
2. Soporte al Servicio
Otras guías operativas
3. Gestión de la infraestructura de TI
4. Gestión de la seguridad
5. Perspectiva de negocio
6. Gestión de aplicaciones
7. Gestión de activos de software
Para asistir en la implementación de prácticas ITIL, se publicó un libro adicional con guías de implementación (principalmente de la Gestión de Servicios):
8. Planeando implementar la Gestión de Servicios
Adicional a los ocho libros originales, más recientemente se añadió una guía con recomendaciones para departamentos de TIC más pequeños:
9. Implementación de ITIL a pequeña escala

Ingeniería de Software Bancario:
Ingeniería de Software Bancario (ISBAN) es una empresa de software perteneciente al Grupo Santander. Sus productos estrella son:
Partenón, un backend escrito en COBOL que según la empresa tiene unos 20 millones de líneas.
BankSphere (abreviado como BKS), un entorno gráfico de desarrollo bancario.
Empresa
La empresa tiene unos 1000 empleados en la filial española, y unos 50 en la filial inglesa. En su origen estaba participada al 50% por el Banco Santander y por Banesto. Desde el 14 de Junio del 2007 el 100% de la empresa es propiedad del Banco Santander.
Beneficios
Los empleados de ISBAN no disfrutan de todos los beneficios normalmente asociados a los empleados de Banca, aunque disponen de creditos blandos, hipotecas al euribor menos 35% y otra serie de beneficios. Muchos de ellos provienen del banco Banesto o del propio Banco Santander; a algunos se les obligó bajo amenaza de despido a realizar el cambio en el que se perdieron dichos beneficios, aunque la mayoría lo aceptaron de buen grado al percibir una compensación economica a cambio. La gran mayoría del personal (hasta más de tres mil) está subcontratado, siguiendo la moda imperante a inicios de 2000.
Productos
Partenón es un backend bancario escrito en COBOL, de unos 20 millones de líneas. El grueso fue desarrollado en la década de 1995 a 2005, y representa uno de los proyectos de software más ambiciosos de España
BankSphere (o BKS) es un entorno gráfico de desarrollo especializado para crear aplicaciones web bancarias. BKS sigue el paradigma de programación gráfica tan en boga en los años 90, hoy en día en franca decadencia. Además, lo pesado de su uso (sólo el documento que explica cómo hacer un "Hola Mundo" ya tiene 80 páginas) lo convierten en un producto poco querido por los desarrolladores. La mayor parte de las veces, los usuarios terminan editando a mano oscuros ficheros XML no documentados, lo que niega los supuestos beneficios de la programación gráfica. Por si fuera poco, es un entorno de programación específico y propietario del grupo Santander, por lo que para muchos desarrolladores es un callejón sin salida profesional.
Premios
En 2006 ISBAN ganó el segundo premio en tecnología de la prestigiosa revista "The Banker", por Partenón.
Ingeniería del Software Avanzado:
Ingeniería del Software Avanzado, S. A. (INSA), es una empresa española fundada en 1991 por IBM España y Catalana Occidente. El objetivo inicial era aprovechar la experiencia del equipo de desarrollo interno de la aseguradora sobre plataformas IBM para comercializar soluciones conjuntas para los sectores económicos (banca, seguros,...) y de la administración pública. Su objeto social es el diseño, desarrollo, gestión y explotación de sistemas de información basados en la tecnología de la información, así como la comercialización de productos y servicios informáticos. Presta también servicios de consultoría, y tiene unos 2.000 empleados. Cuenta con certificado ISO 9001.
Está inscrita en el Registro Mercantil de Madrid, Tomo 3238, Libro 0, Folio 78, Sección 8, Hoja M-55112. y su sede social se encuentra en la Avenida de Burgos 8A. Edificio Bronce de Madrid. Cuenta con delegaciones en Barcelona, Valencia, Guecho, Sevilla y Lisboa. Es parte del del grupo mercantil IBM España.
Ofrece servicios de desarrollo y mantenimiento de Software, ERP, CRM, desarrollos sobre la plataforma IBM iSeries, e-Business, y servicios bancarios y tributarios. Ejemplos de sus desarrollos son el nuevo call center de Balearia o las soluciones en SAP para Azuvi. En 2007 puso en marcha I, el asistente virtual del Ministerio de Cultura de España.
El 20 de febrero de 2007 inauguró el centro de innovación tecnológica Cénit en Cáceres. Este centro tiene como objetivo principal desarrollar proyectos tecnológicos en España y Portugal, y es utilizado, entre otros por El Corte Inglés y Caja Extremadura.

L
Libreta de un solo uso:
En criptografía, la libreta de un solo uso es un algoritmo de cifrado por el que el texto en claro se combina con una clave aleatoria o "libreta" igual de larga que el texto en claro y que sólo se utiliza una vez. Fue inventado en 1917. Si la clave es verdaderamente aleatoria, nunca se reutiliza y, por supuesto, se mantiene en secreto, se puede demostrar que el método de la libreta de un solo uso es irrompible. Uno de su sinonimos puede ser cuaderno.
La parte del nombre relativa a la "libreta" procede de las implementaciones iniciales en las que la clave se distribuía en forma de libreta de papel, de manera que la página podía romperse y destruirse tras su uso. Para facilitar la ocultación, a veces la libreta era físicamente muy pequeña.[1]
La libreta de un solo uso proviene del cifrado de Vernam, que recibe su nombre de Gilbert Vernam, uno de sus inventores. El sistema de Vernam era un cifrado que combinaba un mensaje con una clave que se leía de un bucle de cinta de papel. En su forma original, el sistema de Vernam no era irrompible porque la clave se podía reutilizar. El uso único vino un poco después, cuando Joseph Mauborgne reconoció que si la cinta de la clave era completamente aleatoria, se incrementaría la dificultad criptoanalítica. Algunos autores usan el término "cifrado de Vernam" como sinónimo de "libreta de un solo uso", mientras que otros lo usan para cualquier cifrado de flujo aditivo, incluyendo los basados en un generador de números pseudoaleatorios criptográficamente seguro; abajo lo usaremos en este último sentido.[2]
Secreto perfecto
Al principio se reconocía que la libreta de un solo uso de Vernam-Mauborgne era muy difícil de romper, pero su estatus especial fue descubierto por Claude Shannon unos 25 años después. Usando elementos de la teoría de la información, demostró que la libreta de un solo uso tenía una propiedad que él llamó secreto perfecto: esto es, el texto cifrado no proporciona absolutamente ninguna información acerca del texto en claro. Por tanto, la probabilidad a priori de un mensaje en claro M es igual que la probabilidad a posteriori de un mensaje en claro M dado el correspondiente texto cifrado. Y de hecho todos los textos en claro son igualmente probables. Esto es una poderosa noción de dificultad criptoanalítica.[3]
A pesar de la demostración de Shannon, la libreta de un solo uso tiene en la práctica serias desventajas:
requiere libretas de un solo uso perfectamente aleatorias
la generación e intercambio de las libretas de un solo uso tiene que ser segura, y la libreta tiene que ser al menos tan larga como el mensaje
hace falta un tratamiento cuidadoso para asegurarse de que siempre permanecerán en secreto para cualquier adversario, y es necesario deshacerse de ellas correctamente para evitar cualquier reutilización parcial o completa —de ahí el "un solo uso".
Estas dificultades de implementación han provocado casos en los que se han roto algunos sistemas de libreta de un solo uso, y son tan serios que han evitado que la libreta de un solo uso haya sido adoptada como una herramienta generalizada de seguridad informática.
En particular, el uso único es absolutamente necesario. Si una libreta de un solo uso se usa tan solo dos veces, unas sencillas operaciones matemáticas pueden reducirla a un cifrado de clave corrida. Si ambos textos en claro están en lenguaje natural (por ejemplo en inglés o en ruso), aunque ambos sean secretos, hay muchas posiblidades de que sean recuperados con criptoanálisis, posiblemente con algunas ambigüedades. Por supuesto, del mensaje más largo de los dos sólo se podrá recuperar la parte que solape con el mensaje más corto, además, quizás, de un poco más completando una palabra o frase. La explotación más famosa de esta vulnerabilidad es el proyecto VENONA.[4]
La libreta de un solo uso no proporciona ningún mecanismo para asegurar la integridad del mensaje, y en teoría un atacante en el medio que conozca el mensaje exacto que se está enviando podría sustituir fácilmente parte o todo el mensaje con un texto de su elección que sea de la misma longitud. Se pueden usar las técnicas estándar para evitar esto, como un código de autenticación de mensaje, pero carecen de la prueba de seguridad de la que gozan las libretas de un solo uso.
Historia
Desarrollo técnico
La historia de la libreta de un solo uso está marcada por cuatro descubrimientos separados pero muy relacionados.
El primer sistema de libreta de un solo uso era eléctrico. En 1917, Gilbert Vernam (de AT&T) inventó y posteriormente patentó un cifrado basado en la tecnología de teletipo. Cada catácter del mensaje se combinaba eléctricamente con un carácter de una clave en cinta de papel. El capitán Joseph Mauborgne (más tarde capitán en el ejército de los Estados Unidos y después jefe del Signal Corps) se dio cuenta de que la secuencia de la clave podía ser completamente aleatoria y que, en tal caso, el criptoanálisis sería más difícil. Juntos inventaron el primer sistema de cinta de un solo uso.[5]
El segundo desarrollo fue el sistema de libreta de papel. Los diplomáticos llevaban mucho tiempo usando códigos y cifrados para la confidencialidad y para minimizar los gastos en telégrafo. En el caso de los códigos, las palabrasy las frases se convertían en grupos de números (normalmente 4 o 5 dígitos) utilizando un libro de códigos de tipo diccionario. Para más seguridad, podían combinarse números secretos con (normalmente con suma modular) cada grupo codificado antes de la transmisión, y los números secretos se cambiaban periódicamente (esto se llamaba supercifrado). A principio de los años 20, tres criptógrafos alemanes, Werner Kunze, Rudolf Schauffler y Erich Langlotz, que se dedicaban a romper sistemas así, se dieron cuenta de que nunca podrían romperse si se usaba un número aditivo separado, escogido al azar, para cada grupo codificado. Tenían libretas de papel duplicadas con líneas de grupos de números aleatorios. Cada página tenía un número de serie y ocho líneas. Cada línea tenía seis números de 5 dígitos. Una página se usaba como hoja de trabajo para codificar un mensaje y luego se destruía. El número de serie de la página se enviaba con el mensaje codificado. El destinatario haría el procedimiento a la inversa y luego destruiría su copia de la página. La oficina de asuntos exteriores alemana puso en funcionamiento este sistema en 1923.[5]
Ejemplo
Supongamos que Alicia quiere enviarle el mensaje 'HOLA' a Roberto. Supongamos también que previamente, de alguna manera, se han producido dos libretas de papel que contienen idénticas secuencias de letras aleatorias y que se han enviado por vía segura a ambos. Alicia elige la página apropiada sin utilizar de la libreta. Normalmente la manera de hacer esto se decide a priori, por ejemplo "usar la hoja número 12 el Día del Trabajador", o "usar la siguiente hoja disponible para el siguiente mensaje". El material de la hoja seleccionada es la clave para este mensaje. Todas las letras de la libreta se combinarán de una forma predeterminada con una letra del mensaje. Es común, aunque no obligatorio, asignar a cada letra un valor numérico: por ejemplo, "A" es 0, "B" es 1, y así hasta la "Z", que es 26. En este ejemplo, la técnica es combinar la clave y el mensaje usando la suma modular. Se hace la suma módulo 27 de los valores numéricos de las letras correspondientes al mensaje y la clave. Si la clave empieza por,
X M C K
y el mensaje es "HOLA", entonces el cifrado se haría de la siguiente manera:
24 (X) 12 (M) 2 (C) 10 (K) clave
+ 7 (H) 15 (O) 11 (L) 0 (A) mensaje
= 31 27 13 10 clave + mensaje
= 5 (F) 1 (B) 13 (N) 10 (K) clave + mensaje (mod 27)
Nótese que si el número es mayor que 26, entonces, por aritmética modular, se le restaría 27 al número para hacerlo menor que 27.
El texto cifrado que habría que enviarle a Roberto sería entonces "FBNK". Para obtener el texto en claro, Roberto utiliza la página clave correspondiente y realiza el mismo proceso, pero a la inversa. Ahora, la clave es restada del texto cifrado, de nuevo usando aritmética modular:
5 (F) 1 (B) 13 (N) 10 (K) texto cifrado
- 24 (X) 12 (M) 2 (C) 10 (K) clave
= -19 -11 11 0 texto cifrado - clave
= 7 (H) 15 (O) 11 (L) 0 (A) texto cifrado - clave (mod 27)
De manera similar a lo anterior, si un número es negativo se le suma 27 para hacerlo positivo.
Así, Roberto recupera el texto en claro de Alicia, el mensaje vital "HOLA". Tanto Alicia como Roberto destruyen la hoja con la clave inmediatamente después de su uso, previniendo así su reutilización y un ataque contra el cifrado que sería trivial en esencia. La KGB enviaba con frecuencia a sus agentes libretas de un solo uso imprimidas en minúsculas hojas de "papel flash"—papel convertido químicamente en nitrocelulosa, que arde casi instantáneamente y no deja cenizas.
La libreta de un solo uso clásica del espionaje (que a menudo consistía en verdaderas libretas de papel (a menudo minúsculas para su fácil ocultación), un lápiz afilado y el uso de algún cálculo mental) se puede implementar en forma de software usando ficheros de datos como entrada (texto en claro), salida (texto cifrado) y clave (la secuencia aleatoria requerida). A menudo se utiliza la operación XOR para combinar el texto en claro con la clave, y es especialmente atractiva en computación, ya que normalmente es una instrucción máquina nativa y por tanto es muy rápida. Sin embargo, no es trivial asegurar que la clave es realmente aleatoria, que sólo se utiliza una vez, que nunca acaba en manos de adversarios y que queda completamente destruida tras su utilización. Las partes auxiliares de una implementación de la libreta de un solo uso por software presentan verdaderos desafíos: el manejo/transmisión seguro del texto en claro, claves verdaderamente aleatorias y la utilización única de la clave.
Seguridad
Las libretas de un solo uso son seguras desde el punto de vista de la teoría de la información, en el sentido de que el mensaje cifrado no le proporciona a un criptoanalista ninguna información sobre el mensaje original. Esto es una poderosa noción de seguridad, desarrollada por primera vez durante la Segunda Guerra Mundial por Claude Shannon y demostrada matemáticamente por Shannon en la misma época. Sus resultados fueron publicados en el Bell Labs Technical Journal en 1949. Las libretas de un solo uso, utilizadas adecuadamente, son seguras en este sentido incluso contra adversarios con poder computacional infinito. Para seguir con el ejemplo de arriba, supongamos que Eva intercepta el texto cifrado de Alicia: "FBNK". Si Eva dispusiera de una potencia computacional infinita, hallaría rápidamente que la clave "XMCK" produciría el texto en claro "HOLA", pero también hallaría que la clave "FDJS" produciría el texto en claro "AYER", un mensaje igualmente plausible:
5 (F) 1 (B) 13 (N) 10 (K) texto cifrado
− 5 (F) 3 (D) 9 (J) 19 (S) posible clave
= 0 −2 4 −10 texto cifrado - clave
= 0 (A) 25 (Y) 4 (E) 18 (R) texto cifrado - clave (mod 27)
De hecho, es posible "descifrar" cualquier mensaje con el mismo número de caracteres a partir del texto cifrado simplemente usando una clave diferente, y no existe ninguna información en el texto cifrado que le permita a Eva escoger entre las posibles lecturas del texto cifrado.
La mayoría de los algoritmos de cifrado convencionales, tanto simétricos como asimétricos, utilizan patrones complejos de sustitución y trasposición. En el caso del mejor algoritmo que se usa en la actualidad, no se sabe si existe un procedimiento criptoanalítico que pueda revertir (o revertir parcialmente) esas transformaciones sin conocer la clave utilizada durante el cifrado.
En términos prácticos, para el mejor de ellos no se conoce un procedimiento así, aunque puede que existan algoritmos computacionales que puedan hacerlo en un tiempo 'razonable'. Uno de los principales problemas sin resolver en teoría de la computabilidad está relacionado con este problema; si P=NP, entonces sería al menos posible que se puedan hallar algoritmos así, y seguramente se buscarían con más ahínco que hoy en día. Y aunque se demuestre que no, algunos criptosistemas actuales todavía podrían romperse. Sin embargo, la libreta de un solo uso no sería menos segura si se demostrara que P=NP. En la actualidad, la mayoría de las personas informadas creen que P≠NP, y por tanto es dudoso que esta cuestión tenga ninguna relevancia práctica para el criptoanálisis o para el diseño de algoritmos de cifrado.
Exploits
Aunque las libretas de un solo uso son demostrablemente seguras si se generan y utilizan adecuadamente, un pequeño error puede posibilitar un criptoanálisis exitoso:
En 19441945, la Signal Security Agency del ejército de EEUU consiguió resolver un sistema de libreta de un solo uso utilizado por la Oficina de Asuntos Exteriores alemana para su tráfico de alto nivel, de nombre en clave GEE (Erskine, 2001). El GEE era inseguro porque las libretas no eran completamente aleatorias — la máquina utilizada para generar las libretas producía una salida predecible.
En 1945, EEUU descubrió que los mensajes Canberra-Moscú se estaban cifrando primero usando un libro de códigos y luego usando una libreta de un solo uso. Sin embargo, la libreta de un solo uso era la misma que utilizaba Moscú para los mensajes Washington DC-Moscú. Combinado con el hecho de que algunos mensajes Canberra-Moscú incluían documentos gubernamentales británicos que eran conocidos, esto permitió que se rompieran algunos de los mensajes cifrados.
Las agencias de espionaje soviéticas empleaban libretas de un solo uso para asegurar las comunicaciones con los agentes y los controladores de los agentes. El análisis demostró que estas libretas las generaban personas utilizando máquinas de escribir. Este método, por supuesto, no es "verdaderamente" aleatorio, ya que implica que ciertas secuencias de teclas convenientes sean más probables que otras, aunque demostró ser efectivo en general. Sin copias de las claves utilizadas, sólo ofrecían esperanzas de criptoanálisis algunos defectos en el método de generación o la reutilización de las claves. A principios de los 40, la inteligencia estadounidense y británica consiguió romper parte del tráfico de libreta de un solo uso hacia Moscú durante la Segunda Guerra Mundial, como resultado de ciertos errores cometidos al generar y distribuir las claves.
Requisitos para una verdadera aleatoriedad
Para explicar la libreta de uso único es necesario distinguir entre dos nociones de seguridad. La primera es la seguridad teórica del sistema de libreta de uso único demostrada por Shannon. La segunda es la seguridad ofrecida por los cifrados más punteros (por ejemplo el AES) diseñados con los principios aprendidos durante la larga historia de la rotura de códigos y sujetos al testeo intensivo en un proceso de estandarización, bien en público o por un servicio de seguridad de primera clase (seguridad empírica). La primera está demostrada matemáticamente y está sujeta a la disponibilidad práctica de los números aleatorios. La segunda no está demostrada pero recibe la confianza de la mayoría de los gobiernos para proteger sus secretos más vitales.
Métodos que pueden ofrecer seguridad empírica pero no tienen seguridad de Shannon
Si la clave la genera un programa determinista, entonces no es aleatoria y no se puede afirmar que el sistema de cifrado ofrezca la seguridad teórica de la libreta de un solo uso. Se llama cifrado de flujo. Generalmente estos utilizan una clave pequeña que se usa como semilla para un flujo pseudoaleatorio largo, que luego se combina con el mensaje utilizando algún mencanismo como los de la libreta de un solo uso (por ejemplo, XOR). Los cifrados en flujo pueden ser seguros en la práctica, pero no pueden ser absolutamente seguros en el mismo sentido demostrable de la libreta de un solo uso.
Los cifrados Fish usados por el ejército alemán en la Segunda Guerra Mundial resultaron ser cifrados en flujo inseguros, no útiles libretas de un solo uso automatizadas como pretendían sus diseñadores. Bletchley Park rompía uno de ellos regularmente, la máquina de cifrado de Lorenz.
Sin embargo, si se utiliza un famoso generador de números pseudoaleatorios criptográficamente seguro moderno, puede formar la base de un cifrado en flujo empíricamente seguro. Hay muchos diseños bien probados en el dominio público, que varían desde la simplicidad del RC4 al uso de un cifrado en bloque como el AES en modo contador. Parecería que hay pocos motivos para inventar nuevos cifrados en flujo, pero se piensa desde hace tiempo que la NSA y las agencias similares emplean un esfuerzo considerable en los cifrados en flujo para sus clientes gubernamentales.
Métodos que no ofrecen seguridad empírica ni seguridad de Shannon
La similitud entre los cifrados en flujo y las libretas de un solo uso lleva a menudo a que los criptográficamente incautos inventen cifrados en flujo inseguros bajo la creencia falsa de haber desarrollado una versión práctica de la libreta de un solo uso. Una versión especialmente insegura son los generadores de números aleatorios que se distribuyen en muchos (quizás la mayoría) de las bibliotecas accesorias de los lenguajes de programación o en forma de llamadas al sistema operativo. Normalmente producen secuencias que pasan alguna (o muchas) pruebas estadísticas, pero sin embargo son rompibles por técnicas criptoanalíticas. Durante un tiempo, el ANSI C estándar restringía la salida de la rutina de números aleatorios del lenguaje C a un entero de precisión simple, 16 bits para la mayoría de las implementaciones, dando 32768 valores distintos antes de repetirse. Esto es completamente inseguro y fácilmente rompible por fuerza bruta (para situarnos, basta saber que una computadora de 1 GHz que tarde 10000 ciclos de reloj en comprobar un offset del ciclo RNG (un número ridículamente grande) tardaría menos de un tercio de segundo en comprobar todos los offsets posibles). Los generadores de números aleatorios estándar no sirven para propósitos criptográficos, concretamente para la libreta de un solo uso. En particular, el relativamente reciente algoritmo tornado de Mersenne, admirado ampliamente, aunque es lo bastante "aleatorio" para la mayoría de los usos de simulación o investigación, mejor que la mayoría de los generadores de su mismo tipo, y también bastante rápido, no debe utilizarse para generar claves de libreta de un solo uso. El algoritmo es determinista y no fue diseñado para la seguridad criptográfica.
Además, los valores conocidos públicamente como los dígitos finales de los tiempos de las carreras de maratón, los precios de cierre de valores de bolsa, por muy poco conocidos que sean, las temperaturas o presiones atmosféricas diarias, etc., aunque aparentemente aleatorios, son predecibles —después de que se produzca el hecho. De hecho, tampoco pueden usarse secuencias verdaderamente aleatorias que hayan sido publicadas, ya que si se identifican son predecibles. Un ejemplo es la publicación de una tabla un millón de números aleatorios por la Rand Corp en 1950; ha pasado todos los tests estadísticos de aleatoriedad hasta ahora, y se cree que es verdaderamente aleatoria. Pero, al haberse publicado, es completamente predecible. También lo son los dígitos de pi, e, fi, y otros números irracionales o trascendentales; puede que las secuencias sean aleatorias (una cuestión abierta, en realidad), pero son completamente predecibles.
Conseguir la seguridad de Shannon
Para conseguir la seguridad de Shannon se necesita una fuente de datos aleatorios perfectamente impredecibles. Una base teórica para la existencia física de la impredecibilidad es la mecánica cuántica. Sus afirmaciones de impredecibilidad están sujetas a la comprobación experimental. Ver: Experimentos de Bell. Otra base es la teoría de los sistemas dinámicos inestables y la teoría del caos. Estas teorías sugieren que incluso en el mundo determinista de la mecánica newtoniana, los sistemas reales evolucionan de maneras que no se pueden predecir en la práctica porque haría falta conocer las condiciones iniciales con una precisión que crece exponencialmente con el tiempo.
Para que se puedan usar en una libreta de un solo uso, los datos deben mostrar una aleatoriedad perfecta. En la práctica, la mayoría de las fuentes muestran alguna imperfección o desviación. La calidad de la aleatoriedad se mide por entropía. Un bit perfectamente aleatorio tiene una entropía uno. Una idea procedente de Von Neumann es utilizar un algoritmo para combinar varios bits aleatoriamente imperfectos, con una entropía menor que uno, para producir un bit con entropía igual a uno. Este proceso se llama destilación de entropía o blanqueamiento de Von Neumann, y permite generar en la práctica datos aleatorios adecuados para su uso en una libreta de un solo uso. El blanqueamiento de Von Neumann consiste en lo siguiente:[6]
En Linux (y otros sistemas tipo Unix), el generador de números aleatorios del kernel, /dev/random, utiliza el ruido ambiental para generar datos aleatorios y es mejor que muchos diseños basados en llamadas al sistema. Intenta estimar la cantidad de entropía que recoge y se bloquea si el fondo de entropía se agota. Pretende ser, y se piensa que realmente es, mejor que muchos generadores parecidos, y si es así, está muy cerca de ser satisfactoriamente aleatorio. Pero este proceso es lento en sistemas que tienen pocas fuentes de ruido utilizables. Sin embargo, puede alimentarse con entropía adicional leyendo de un dispositivo generador de ruido.
Linux también proporciona /dev/urandom, que utiliza un algoritmo determinista para generar los datos cuando no hay ruido ambiental disponible. Existen diseños mejorados como el algoritmo de Yarrow. Las claves de libreta de un solo uso generadas con este método (es decir, con generadores de números aleatorios deterministas) carecen de la seguridad teórica de una libreta de un solo uso. Yarrow ofrece al menos tanta fuerza como un cifrado en bloque basado en el Triple DES.
Si una computadora que se utiliza para generar libretas de un solo uso queda comprometida por un virus informático u otros malwares, o por un adversario que consiga acceso físico, el software puede ser modificado para que transmita los datos o genere datos aparentemente aleatorios que en realidad son predecibles. Una forma de reducir este riesgo es generar libretas en una máquina que nunca esté conectada a una red informática y que preferiblemente no se utilice para ninguna otra tarea. Si se recogen los datos en dispositivos de almacenamiento nuevos y vírgenes (por ejemplo un disquete o un CD-R), se elimina otra fuente de infección de malware. Si se van a producir libretas de papel, es mejor que la impresora también sea dedicada. Una opción puede ser utilizar un ordenador portátil antiguo para generar las libretas, borrado y reinstalado con una copia confiable de un sistema operativo de código abierto, como Linux o BSD. Su pequeño tamaño permitiría guardarlo fácilmente en una caja fuerte cuando no esté en funcionamiento.

M
Memoria (informática):
Memoria, también llamada memoria de computadora, se refiere a componentes de una computadora, dispositivos y medios de grabación que retienen datos informáticos durante algún intervalo de tiempo. Las memorias de computadora proporcionan una de las principales funciones de la computación moderna, la retención de información. Es uno de los componentes fundamentales de todas las computadoras modernas que, acoplados a una Unidad Central de Proceso (CPU por su acrónimo en inglés), implementa lo fundamental del modelo de computadora de Von Neumann, usado desde los años 1940.
En la actualidad, memoria suele referirse a una forma de almacenamiento de estado sólido conocido como Memoria RAM (memoria de acceso aleatorio, RAM por sus siglas en inglés Random Access Memory) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal. De forma similar, se refiere a formas de almacenamiento masivo como Discos ópticos y tipos de almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en general.
Además, se refleja una diferencia técnica importante y significativa entre memoria y dispositivos de almacenamiento masivo, que se ha ido diluyendo por el uso histórico de los términos "almacenamiento primario" (a veces "almacenamiento principal"), para memorias de acceso aleatorio, y "almacenamiento secundario" para dispositivos de almacenamiento masivo. Esto se explica en las siguientes secciones, en las que el término tradicional "almacenamiento" se usan como subtítulo por conveniencia.
Propósitos del almacenamiento
Los componentes fundamentales de las computadoras de propósito general son la unidad aritmético-lógica, la unidad de control, espacio de almacenamiento y los dispositivos de entrada/salida. Si se elimina el almacenamiento, el aparato sería una simple calculadora en lugar de un computadora. La habilidad para almacenar las instrucciones que forman un programa de computadora y la información que manipulan las instrucciones es lo que hace versátiles a las computadoras diseñadas según la arquitectura de programas almacenados
Una computadora digital representa toda la información usando el sistema binario. Texto, números, imágenes, sonido y casi cualquier otra forma de información puede ser transformada en una sucesión de bits, o dígitos binarios, cada uno de los cuales tiene un valor de 1 ó 0. la unidad de almacenamiento más común es el byte, igual a 8 bits. Una determinada información puede ser manipulada por cualquier computadora cuyo espacio de almacenamiento es suficientemente grande como para que quepa el dato correspondiente o la representación binaria de la información. Por ejemplo, una computadora con un espacio de almacenamiento de ocho millones de bits, o un megabyte, puede ser usado para editar una novela pequeña.
Se han inventado varias formas de almacenamiento basadas en diversos fenómenos naturales. No existen ningún medio de almacenamiento de uso práctico universal y todas las formas de almacenamiento tienen sus desventajas. Por tanto, un sistema informático contiene varios tipos de almacenamiento, cada uno con su propósito individual, como se muestra en el diagrama.
Almacenamiento prioritario
La memoria primaria está directamente conectada a la unidad central de proceso de la computadora. Debe estar presente para que la CPU funcione correctamente. El almacenamiento primario consiste en tres tipos de almacenamiento:
Los registros del procesador son internos de la unidad central de proceso. Contienen información que las unidades aritmético-lógicas necesitan llevar a la instrucción en ejecución. Técnicamente, son los más rápidos de los almacenamientos de la computadora, siendo transistores de conmutación integrados en el chip de silicio de la CPU que funcionan como "flip-flop" electrónicos.
La memoria caché es un tipo especial de memoria interna usada en muchas unidades centrales de proceso para mejorar su eficiencia o rendimiento. Parte de la información de la memoria principal se duplica en la memoria caché. Comparada con los registros, la caché es ligeramente más lenta pero de mayor capacidad. Sin embargo, es más rápida. Aunque de mucha menor capacidad que la memoria principal. También es de uso común la memoria caché multi-nivel - la "caché primaria" que es más pequeña, rápida y cercana al dispositivo de procesamiento; la "caché secundaria" que es más grande y lenta, pero más rápida y mucho más pequeña que la memoria principal.
La memoria principal contiene los programas en ejecución y los datos con que operan. La unidad aritmético-lógica puede transferir información muy rápidamente entre un registro del procesador y localizaciones del almacenamiento principal, también conocidas como "direcciones de memoria". En las computadoras modernas se usan memorias de acceso aleatorio basadas en electrónica del estado sólido, que está directamente conectada a la CPU a través de un "bus de memoria" (como se ve en el diafragma) y de un "bus de datos". Al bus de memoria también se le llama bus de dirección o bus frontal, (Front Side Bus) y ambos buses son "superautopistas" digitales de alta velocidad. Los métodos de acceso y la velocidad son dos de las diferencias técnicas fundamentales entre memoria y dispositivos de almacenamiento masivo. (Nótese que, con el tiempo, los avances tecnológicos harán que se superen todos los tamaños y capacidades de almacenamiento mostrados en el diagrama).
Almacenamiento secundario, terciario y fuera de línea
La memoria secundaria requiere que la computadora use sus canales de entrada/salida para acceder a la información y es usada para almacenamiento a largo plazo de información persistente. Sin embargo, la mayoría de los sistemas operativos usan los dispositivos de almacenamiento secundario como area de intercambio para incrementar artificialmente la cantidad aparente de memoria principal en la computadora. A la memoria secundaria también se le llama "almacenamiento masivo".
Habitualmente, la memoria secundaria o de almacenamiento masivo es de mucha mayor capacidad que la memoria primaria, pero también es mucho más lenta. En las computadoras modernas, los discos duros suelen usarse como dispositivos de almacenamiento masivo. El tiempo necesario para acceder a un byte de información dado almacenado en un disco duro es de alrededor de unos pocas milésimas de segundo (milisegundos). En cambio, el tiempo que lleva acceder lo mismo en una memoria de acceso aleatorio se mide en mil-millonésimas de segundo (nanosegundos). Esto ilustra cuan significativa es la diferencia de velocidad que distingue las memorias de estado sólido de los dispositivos rotantes de almacenamiento magnético: Los discos duros son del orden de un millón de veces más lentos que la memoria. Los dispositivos rotantes de almacenamiento óptico (unidades de CD y DVD) son incluso más lentos que los discos duros, aunque es probable que sus velocidades de acceso mejoren a la par que los avances tecnológicos. Por lo tanto, el uso de la memoria virtual, que es cerca de millón de veces más lenta que memoria “verdadera”, enlentece apreciablemente el funcionamiento de cualquier computadora. Muchos sistemas operativos implementan la memoria virtual usando términos como memoria virtual o "fichero de caché". La principal ventaja histórica de la memoria virtual era que era mucho más barata que la memoria real. Esa ventaja es menos relevante hoy en día. Aun así, muchos sistemas operativos siguen implementándola, a pesar de provocar un funcionamiento significativamente peor.
La memoria terciaria es un sistema donde un brazo robótico montará (conectará) o desmontará (desconectará) un medio de almacenamiento masivo fuera de línea (ver siguiente punto) según lo pida el sistema operativo de la computadora. La memoria terciaria se usa en el área del almacenamiento industrial, la computación científica en grandes sistemas informáticos y redes empresariales. Este tipo de memoria es algo que los usuarios de computadoras personales normales nunca ven de primera mano.
El almacenamiento fuera de línea es un sistema donde el medio de almacenamiento puede ser extraído fácilmente del dispositivo de almacenamiento. Estos medios de almacenamiento suelen usarse para transporte y archivo de datos. En computadoras modernas son de uso habitual para este propósito los disketes, discos ópticos y las memorias flash, incluyendo las unidades USB. También hay discos duros USB que se pueden conectar en caliente. Los dispositivos de almacenamiento fuera de línea usados en el pasado son cintas magnéticas en muchos tamaños y formatos diferentes, y las baterías extraíbles de discos Winchester.
Almacenamiento de red
El almacenamiento de red es cualquier tipo de almacenamiento de computadora que incluye el hecho de acceder a una información a través de una red informática. Discutiblemente, el almacenamiento de red permite centralizar el control de información en una organización y reducir la duplicidad de la información. El almacenamiento en red incluye:
El almacenamiento asociado a red es una memoria secundaria o terciaria que reside en una computadora a la que otra de éstas puede acceder a través de una red de área local, una red de area extensa, una red privada virtual o, en el caso de almacenamientos de archivos en línea, internet.
Las redes de computadoras son computadoras que no contienen dispositivos de almacenamiento secundario. En su lugar, los documentos y otros datos son almacenados en un dispositivo de la red.
Características de las memorias
La división entre primario, secundario, terciario, fuera de línea se basa en la jerarquía de memoria o distancia desde la unidad central de proceso. Hay otras formas de caracterizar a los distintos tipos de memoria.
Volatilidad de la información
La memoria volátil requiere energía constante para mantener la información almacenada. La memoria volátil se suele usar solo en memorias primarias.
La memoria no volátil retendrá la información almacenada incluso si no recibe corriente eléctrica constantemente. Se usa para almacenamientos a largo plazo y, por tanto, se usa en memorias secundarias, terciarias y fuera de línea.
Memoria dinámica es una memoria volátil que además requiere que periódicamente se refresque la información almacenada, o leída y reescrita sin modificaciones.
Habilidad para acceder a información no contigua
Acceso aleatorio significa que se puede acceder a cualquier localización de la memoria en cualquier momento en el mismo intervalo de tiempo, normalmente pequeño.
Acceso secuencial significa que acceder a una unidad de información tomará un intervalo de tiempo variable, dependiendo de la unidad de información que fue leída anteriormente. El dispositivo puede necesitar buscar (posicionar correctamente el cabezal de lectura/escritura de un disco), o dar vueltas (esperando a que la posición adecuada aparezca debajo del cabezal de lectura/escritura en un medio que gira continuamente).

Habilidad para cambiar la información
Las memorias de lectura/escritura o memorias cambiables permiten que la información se reescriba en cualquier momento. Una computadora sin algo de memoria de lectura/escritura como memoria principal sería inútil para muchas tareas. Las computadora modernas también usan habitualmente memorias de lectura/escritura como memoria secundaria.
La memorias de solo lectura' retiene la información almacenada en el momento de fabricarse y la memoria de escritura única (WORM) permite que la información se escriba una sola vez en algún momento tras la fabricación. También están las memorias inmutables, que se utilizan en memorias terciarias y fuera de línea. Un ejemplo son los CD-ROMs.
Las memorias de escritura lenta y lectura rápida es una memoria de lectura/escritura que permite que la información se reescriba múltiples veces pero con una velocidad de escritura mucho menor que la de lectura. Un ejemplo son los CD-RW.

Direccionabilidad de la información En la memoria de localización direccionable, cada unidad de información accesible individualmente en la memoria se selecciona con su dirección de memoria numérica. En las computadora modernas, la memoria de localización direccionable se suele limitar a memorias primarias, que se leen internamente por programas de computadora ya que la localización direccionable es muy eficiente, pero difícil de usar para los humanos.
En las memorias de sistema de archivos, la información se divide en Archivos informáticos de longitud variable y un fichero concreto se localiza en directorios y nombres de archivos legibles por humanos. El dispositivo subyacente sigue siendo de localización direccionable, pero el sistema operativo de la computadora proporciona la abstracción del sistema de archivos para que la operación sea más entendible. En las computadora modernas, las memorias secundarias, terciarias y fuera de línea usan sistemas de archivos.
En las memorias de contenido direccionable (content-addressable memory), cada unidad de información leíble individualmente se selecciona con una valor hash o un identificador corto sin relación con la dirección de memoria en la que se almacena la información. La memoria de contenido direccionable pueden se construida usando software o hardware, siendo la opción hardware la opción más rápida y cara.
Capacidad de Memoria
Memorias de mayor capacidad son el resultado de la rápida evolución en tecnología de semiconductores. Los primeros programas de ajedrez corrían en máquinas que utilizaban memorias de base magnética. A inicios de 1970 aparecen las memorias realizadas en base a semiconductores utilizadas en la serie de computadoras IBM 370. Así como la velocidad de los computadores se incrementó en un factor de aproximadamente 100.000, la capacidad de memoria creció en una proporción similar. Este hecho es particularmente importante en programas que utilizan tablas de transposición. A medida que aumenta la velocidad de la computadora memorias de capacidad proporcionalmente mayor son necesarias para mantener la cantidad extra de posiciones que son buscadas.
Así como se espera tener mayores incrementos en la capacidad de procesadores en los próximos años, no es un abuso decir que la capacidad de memoria continuará creciendo de manera impresionante. Memorias de mayor capacidad podrán ser utilizadas por programas con tablas de hash de mayor envergadura, las cuales mantendrán la información en forma permanente.
Minicomputadoras: se caracterizan por tener una configuración básica regular que puede estar compuesta por un monitor, unidades de diskette, disco, impresora, etc. Su capacidad de memoria varía de 16 a 256 kbytes.
Macrocomputadoras: son aquellas que dentro de su configuración básica contienen unidades que proveen de capacidad masiva de información, terminales(monitores), etc. Su capacidad de memoria varía desde 256 a 512 kbytes, también puede tener varios megabytes o hasta gigabytes según las necesidades de la empresa.
Microcomputadores y computadoras personales: Con el avance de la microelectrónica en la década de los 70s resultaba posible incluir todos los componente del procesador central de una computadora en un solo circuito integrado llamado microprocesador. Esta fue la base de creación de una computadoras a las que se les llamo microcomputadoras. El origen de las microcomputadoras tuvo lugar en los Estados Unidos a partir de la comercialización de los primeros microprocesadores ( INTEL 8008, 8080 ) En la década de los 80s comenzó la verdadera explosión masiva, de las personal computer ( PC ) de IBM. Esta maquina basada en el microprocesador INTEL 8088 ) tenia características interesantes que hacían más amplio su campo de operaciones, sobre todo porque su nuevo sistema operativo estandarizado ( MS-DOS, Microsoft Disk Operating Sistem ) y una capacidad mejorada de graficación, la hacían más atractiva y fácil de usar. La PC a pasado por varias transformaciones y mejoras y se conocen como XT( Tecnología Extendida ), AT( Tecnología Avanzada ) y PS/2. Este es un resumen de los acontecimientos más importantes 1971 Microprocesador INTEL 8008. Circuito de alta integración que luego daría inicio a las microcomputadoras. 1973 Microprocesador INTEL 8080. Nacimiento de la industria de la microcomputación. 1975 Aparece la microcomputadora APPLE. Aparece el microprocesador Zilog Z80. 1976 Microprocesador INTEL 8085. Microprocesador Mostek 6502 empleado por APPLE. 1981 IBM lanza la computadora personal conocida como PC-XT. 1984 IBM lanza la computadora personal conocida como PC-AT, basada en el microprocesador INTEL 80286. 1987 En todo el mundo se han vendido 60 millones de computadoras personales compatibles con la PC de IBM. 1988 IBM presenta la serie de computadoras personales PS/2 alguna de las cuales emplean el microprocesador INTEL 80386. 1991 Nuevos microprocesadores de muy alto rendimiento como son : INTEL 80486, MOTOROLA 68040, etc.

Tecnologías, dispositivos y medios
Memorias Magnéticas
Las memorias magnéticas usan diferentes patrones de magnetización sobre una superficie cubierta con una capa magnetizada para almacenar información. Las memorias magnéticas son no volátiles. Se llega a la información usando uno o más cabezales de lectura/escritura. Como el cabezal de lectura/escritura solo cubre una parte de la superficie, el almacenamiento magnético es de acceso secuencial y debe buscar, dar vueltas o las dos cosas. En computadora modernas, la superficie magnética será de alguno de estos tipos:
Disco magnético
Disquete, usado para memoria fuera de línea
Disco duro, usado para memoria secundario
Cinta magnética, usada para memoria terciaria y fuera de línea.
En las primeras computadoras, el almacenamiento magnético se usaba también como memoria principal en forma de memoria de tambor, memoria de núcleo, memoria en hilera de núcleo, memoria película delgada, memoria de Twistor o memoria burbuja. Además, a diferencia de hoy, las cintas magnéticas se solían usar como memoria secundaria.
Memoria de semiconductor
La memoria de semiconductor usa circuitos integrados basados en semiconductores para almacenar información. Un chip de memoria de semiconductor puede contener millones de minúsculos transistores o condensadores. Existen memorias de semiconductor de ambos tipos: volátiles y no volátiles. En las computadoras modernas, la memoria principal consiste casi exclusivamente en memoria de semiconductor volátil y dinámica, también conocida como memoria dinámica de acceso aleatorio. Con el cambio de siglo, ha habido un crecimiento constante en el uso de un nuevo tipo de memoria de semiconductor no volátil llamado memoria flash. Dicho crecimiento se ha dado, principalmente en el campo de las memorias fuera de línea en computadoras domésticas. Las memorias de semiconductor no volátiles se están usando también como memorias secundarias en varios dispositivos de electrónica avanzada y computadoras especializadas.
Memorias de disco óptico
Las memorias en disco óptico almacenan información usando agujeros minúsculos grabados con un láser en la superficie de un disco circular. La información se lee iluminando la superficie con un diodo laser y observando la reflexión. Los discos ópticos son no volátil y de acceso secuencial. Los siguientes formatos son de uso común:
CD, CD-ROM, DVD: Memorias de simplemente solo lectura, usada par distribución masiva de información digital (música, vídeo, programas informáticos).
CD-R, DVD-R, DVD+R: Memorias de escritura única usada como memoria terciaria y fuera de línea.
CD-RW, DVD-RW, DVD+RW, DVD-RAM: Memoria de escritura lenta y lectura rápida usada como memoria terciaria y fuera de línea.
Blu-ray: Formato de disco óptico pensado para almacenar vídeo de alta calidad y datos. Para su desarrollo se creó la BDA, en la que se encuentran, entre otros, Sony o Phillips.
HD DVD
Se han propuesto los siguientes formatos:
HVD
Discos cambio de fase Dual
Memorias de discos magneto ópticos
Las Memorias de disco magneto óptico son un disco de memoria óptica donde la información se almacena en el estado magnético de una superficie ferromagnética. La información se lee ópticamente y se escribe combinando métodos magnéticos y ópticos. Las memorias de discos magneto ópticos son de tipo no volátil, de acceso secuencial, de escritura lenta y lectura rápida. Se usa como memoria terciaria y fuera de línea.
Otros métodos iniciales
La cinta de papel y las tarjetas perforadas se usaron para almacenar información para procesamiento automático desde los 1980s, mucho antes de que existieran las computadoras de propósito general. La información se grababa perforando agujeros en el papel o la tarjeta. La lectura se realizaba por sensores eléctricos (más tarde ópticos) donde una localización particular podía estar agujereada o no.
Para almacenar información, los tubos Williams usaban un tubo de rayos catódicos y los tubos Selectrón usaban un gran tubo de vacío. Estos dispositivos de memoria primaria tuvieron una corta vida en el mercado ya que el tubo de Williams no era fiable y el tubo de Selectron era caro.
La memoria de línea de retardo usaba ondas sonoras en una sustancia como podía ser el Mercurio para guardar información. La memoria de línea de retardo era una memoria dinámica volátil, ciclo secuencial de lectura/escritura. Se usaba como memoria principal.
Otros métodos propuestos
La memoria de cambio de fase usa las fases de un material de cambio de fase para almacenar información. Dicha información se lee observando la resistencia eléctrica variable del material. La memoria de cambio de fase sería una memoria de lectura/escritura no volátil, de acceso aleatorio podría ser usada como memoria primaria, secundaria y fuera de línea. La memoria holográfica almacena ópticamente la información dentro de cristales o fotopolímeros. Las memorias holográficas pueden utilizar todo el volumen del medio de almacenamiento, a diferencia de las memorias de discos ópticos, que están limitadas a un pequeño número de superficies en capas. La memoria holográfica podría ser no volátil, de acceso secuencial y tanto de escritura única como de lectura/escritura. Puede ser usada tanto como memoria secundaria como fuera de línea.
La memoria molecular almacena la información en polímeros que pueden almacenar puntas de carga eléctrica. La memoria molecular puede ser especialmente interesante como memoria principal.
Véase también
Fragmentación
Artículos sobre la memoria primaria
sistemas de memoria principal
gestión de memoria
memoria virtual
memoria física
asignación de memoria
§ memoria dinámica
§ Fuga de memoria
Protección de memoria
Memoria flash
Disco de estado sólido
Memoria de acceso aleatorio dinámica
Memoria de acceso aleatorio estática
Memorias RAM
Artículos sobre la memoria secundaria, terciaria y fuera de línea
Lista de formatos de archivo
Estado de Espera
Protección de escritura
Biblioteca de cinta virtual
Microfilm:
El microfilm es un sistema de archivo, gestión y difusión documental. Su producción está sometida a un alto grado de normalización, tanto en su metodología como en los materiales utilizados y un estricto control de productos resultantes.
Su objetivo es obtener una reproducción exacta del documento original, representada a un grado de reducción determinado y conocido, sobre un soporte fotográfico normalizado y cuya posición dentro de una serie documental puede ser establecida.
Todo ello hace que cada una de sus imágenes tenga valor individual y que instituciones e incluso los gobiernos de algunos países acepten el microfilm como documento con valor probatorio ante un tribunal.
Referencias

KEENE, J.A. y ROPER, M. (1984.), Planificación, equipamiento y dotación de personal de un servicio reprográfico de documentos. Un estudio RAMP con directrices. 92 p. (PGI/-84/WS/8), Paris : Unesco. ISBN.
KÖRMENDY, LAJOS. (1989.), Manual of archival reprography. Edited by, Compiled by Ted. F. Powell, George Weill. Paris, etc.: ICA, 223 p., Saur, ICA Handbooks series; vol. 5. 3598202776.

Microfilmadora:
Una microfilmadora es una máquina transductora que se usa para crear fichas de microfilm.
Tipos
Las microfilmadoras clásicas basadas en cámaras fotográficas presentan dos configuraciones básicas: planetarias y rotativas.
Planetarias
Genera una ficha de microfilm de un documento dispuesto sobre una superficie plana. En este tipo de configuración tanto el documento como la película filmadora deben estar inmóviles durante el proceso de toma de la muestra.
Rotativas
Provistas de un carrete fílmico generan filminas de hojas de documentos que pasan de forma secuencial sobre un plato de filmación arrastradas por rodillos.
Basadas en escáner
Los modelos modernos están provistos de un elemento de digitalización- escáner - de imágenes e impresoras térmicas y de láser para la creación de la fichas. El control electrónico asociado a estas microfiladoras permiten integrar tanto el concepto de máquinas planetarias como rotativas así como técnicas de manejo de los documentos a digitalizar permitiendo la microfilmación automática de documentos empastados.

N
Novasoft:
Novasoft es una empresa intensiva en conocimiento y de base tecnológica. Nacida en 1993 en Málaga, fruto de una iniciativa auspiciada en una incubadora de empresas, Novasoft pronto comenzó a volar en solitario y cuatro años más tarde fundaba su primera empresa en Estados Unidos, tras haberse hecho un hueco en el mercado nacional con el desarrollo de sistemas de información para centros sanitarios y hospitales.
Sus fundadores, aún hoy al frente de la compañía, adoptaron para sí el leit motiv ‘Innovación, Tecnología y Conocimiento’ y se plantearon que no hallarían barreras en su aventura empresarial. A comienzos del año 2000, la compañía ya tenía sedes en distintos puntos del país, había firmado grandes alianzas con multinacionales para exportar sus productos y contaba con una plantilla de cerca de 140 personas. Para entonces, Novasoft ya había diversificado su cartera de productos y servicios. A los exitosos pasos dados en el ámbito sanitario siguieron la creación de una división de Consultoría, otra de Ingeniería en Tecnologías de la Información, una tercera de Formación y una última de Telecomunicaciones, una diversificación que llevó a la compañía a contar con algo más de 300 trabajadores y a facturar más de 24 millones de euros. Estas cuatro áreas de negocio son las que actualmente forman la columna vertebral de la compañía. En la última década Novasoft se ha convertido además en una de las compañías más laureadas de la Comunidad Autónoma Andaluza, obteniendo reconocimientos tanto a su gestión como a la valía profesional de sus directivos (finalista en tres ocasiones en los premios Príncipe Felipe de Excelencia Empresarial, obtención de la Medalla de Oro de Andalucía, otorgada al presidente ejecutivo de la compañía) y en uno de los principales referentes del Parque Tecnológico de Andalucía (PTA), al que ha regresado casi una década después de abandonarlo, con un edificio propio inaugurado en julio de 2006 por el presidente de la Junta de Andalucía. Esta nueva sede se suma a las que ya posee la compañía en Sevilla (en el Parque Tecnológico Cartuja 93), en Tenerife, y a la que comenzó a funcionar a comienzos de 2008 en Jaén. La trayectoria de Novasoft, además, no sólo la convierte en un referente nacional en cuanto a su modelo empresarial, sino que también la sitúan como una de las compañías que más ha tratado de comprometerse tanto con el sector de la innovación y el conocimiento como con su propio entorno. De hecho, Novasoft ha participado en las grandes alianzas empresariales que se han desarrollado en Andalucía en los últimos años (como la Corporación Tecnológica de Andalucía, de la que es patrono numerario) y sus miembros han respondido a las llamadas que les han hecho distintos organismos e instituciones (véase el ejemplo del presidente ejecutivo, que actualmente es presidente del Consejo Social de la Universidad de Málaga y que ha sido presidente de la Asociación de Empresarios de Tecnologías de la Información y Comunicaciones de Andalucía (ETICOM) y presidente del centro tecnológico CITIC). En el plano de responsabilidad social corporativa, la compañía ha desarrollado múltiples actuaciones altruistas para con sus propios empleados, llegando a estar elegida entre las 25 empresas de todo el país con mejor clima laboral, y para la sociedad en general, culminando este compromiso con la creación, en 2003, de la Fundación Novasoft y la participación como patrono fundacional de la Fundación Manuel Alcántara y como socio protector del Museo Picasso de Málaga con las que pretende estrechar aún más los lazos con su entorno social y cultural.
P
Produban:
Produban es una empresa del Grupo Santander. Su sede se encuentra en el parque empresarial La Finca de Pozuelo de Alarcón, una localidad a las afueras de Madrid. El resto de los trabajadores se encuentran en Mesena, 80, Madrid, también conocida como Ciudad Banesto y en Ciudad Santander en Boadilla. Sus actividades, orientadas al soporte informático del Grupo Santander, se encuentran en diversos ámbitos: auditoría, consultoría, tecnologías de la información.
Historia
Empresa surgida en el año 2004, debido a la externalización de los servicios informáticos del Grupo Santander. Por ello, también surgió la segunda empresa informática del Grupo, llamada Isban.
Produban se creó inicialmente para dar soporte a la migración de sistemas que sufrió en 2005 el Banco de Santander adoptando el sistema IBM z/OS basado en Control-M de la empresa BMC y soporte Cobol/CICS/DB2 y dejando su sistema antiguo CA7 basado en bases de datos jerárquicas IMS.
Tras varios intentos fallidos de migración a un sistema nuevo se decidió clonar el entorno de Banesto en Santander, lo que se ha conocido como el proyecto Partenon y que se instalará próximamente en otros bancos europeos como Abbey National Bank.
La esencia de Partenon es la mecanización casi 100% del proceso de backoffice.
La mayor parte de aplicaciones BankSphere se implantan sobre servidores Windows Server 2003.
Otra característica de Produban es que tiene externalizada la mayoría de su plantilla, a través de empresas satélite, así empresas como Indra y Everis tienen presencia gracias a filiales de sus filiales. Un ejemplo de ello es Everis, que firmo un acuerdo con el Santander, que se tradujo en que la plantilla provenía de Qualitas Sistemas y a su vez esta empresa externalizaba trabajadores de SFactory, filial creada específicamente para este fin que facturó su primer millón de euros en menos de un año de vida. Con Indra se dio la misma situación, llegando a traer trabajadores de múltiples empresas como Transiciel, AXPE, TECNOCOM o Cibernos.
Obtenido de "http://es.wikipedia.org/wiki/Produban"

S
Servicios de red social:
Un servicio de red social se centra en la construcción y la verificación de las redes sociales online para las comunidades de personas que comparten intereses y actividades, o que están interesados en explorar los intereses y las actividades de otros, y que requiere el uso de software.
Introducción
La mayoría de los servicios están principalmente basados en la web y ofrecer una colección de diversas vias para que los usuarios puedan interactuar, como el chat, mensajería, correo electrónico, videoconferencia, chat de voz, el uso compartido de archivos, blogs, grupos de discusión, etc.
Los principales tipos de servicios de redes sociales son las que contienen los directorios de algunas categorías (como los amigos), los medios para conectarse con los amigos (por lo general, con la libre descripción de páginas), y recomienda los sistemas vinculados a la confianza. Los métodos populares combinan ahora muchos de estos, MySpace y Facebook son los más utilizados en América del Norte, Bebo,MySpace, Skyblog, Facebook Hi5 en partes de Europa, Hi5 Orkut en América del Norte y América Central, Friendster, Orkut y CyWorld en Asia y las Islas del Pacífico y LiveJournal en Rusia. LeMonde proporcionó un mapa detallado de popularidad, 14 de enero de 2008.
Ha habido algunos intentos de estandarizar este tipo de servicios debido a la necesidad de evitar la duplicación de entradas de los amigos y los intereses (véase el estándar FOAF y la Open Source Initiative), pero esto ha dado lugar a algunas inquietudes acerca de la privacidad.
Historia de los servicios de red social
La idea de que las computadoras individuales vinculadas electrónicamente podrían formar la base de la interacción social se sugirió desde el principio - por ejemplo, The Network Nation[1] esboza de manera efectiva como la comunicación mediante un ordenador debe ser desarrollada para este fin.
Hay muchos de los primeros esfuerzos de apoyo a las redes sociales a través de la comunicación por ordenador, incluida la Usenet, ARPANET, servicios de tablón de anuncios (BBS), y EIES: Murray Turoff basada en el servidor de Servicio de Intercambio de Información Electrónica (Turoff y Hiltz, 1978, 1993). El Grupo de Información de enrutamiento ha elaborado un esquema de como el proto-Internet debe apoyarlo.
Los primeros sitios web de redes sociales incluidos Classmates.com (1995)[7], centrándose en los vínculos con el antiguo colegio, y SixDegrees.com (1997)[8], centrándose en los vínculos indirectos son dos modelos diferentes de la creación de redes sociales que se produjeron en 1999 y que fueron basados en la confianza, desarrollado por Epinions.com, y basada en la amistad, como los elaborados por Jonathan Obispo y se usaron en algunos sitios regionales del Reino Unido entre 1999 y 2001. Innovaciones incluidas no solo mostrando quienes son "amigos", pero dando a los usuarios más control sobre el contenido y conectividad. Para el año 2005, un servicio de red social MySpace, informó que había conseguido más páginas visitadas que Google, con Facebook, un competidor que crecía rápidamente. En 2007, comenzó Facebook comenzó a permitir desarrollos externos y añadir aplicaciones, y algunas aplicaciones habilitaban la representación gráfica de un usuario de la propia red social - por lo tanto, la vinculación de las redes sociales y la creación de redes sociales.
La creación de redes sociales empezó a florecer como un componente de la estrategia de negocios de Internet, alrededor de marzo de 2005, cuando Yahoo lanzó Yahoo! 360º. En julio de 2005 News Corporation compró MySpace, seguida de la compra de Friends Reunited por la ITV (Reino Unido), en Diciembre de 2005. Varios sitios de redes sociales han surgido de la restauración a los diferentes idiomas y países. Se estima que actualmente hay más de 200 sitios de redes sociales existentes utilizando estos emergentes modelos de redes sociales.
La investigación sobre el impacto social de la creación de redes sociales de software
Un número creciente de académicos comentaristas están cada vez más interesados en el estudio de Facebook y otras herramientas de redes sociales. Los investigadores de ciencias sociales han empezado a investigar cuál es el impacto que esto puede tener en la sociedad. Típicos artículos han investigado cuestiones como
Identidad[2]
Privacidad[3]
Aprendizaje[4]
El capital social[5]
Uso adolescente[6]
Una edición especial del Diario Computer-Mediated Communications[7] se dedicó a los estudios de los sitios de redes sociales. Incluido en este tema aparece una introducción a los sitios de la red social. Una lista de las becas académicas en estos sitios también está disponible.
Aplicaciones de negocios
Las redes sociales conectan personas a bajo costo, lo que puede ser beneficioso para los emprendedores y las pequeñas empresas que buscan ampliar su base de contacto. Estas redes suelen actuar como una herramienta de gestión de las relaciones con los clientes para empresas que venden productos y servicios. Las empresas también pueden utilizar las redes sociales de la publicidad en forma de banners y anuncios de texto. Dado que las empresas operan a nivel mundial, las redes sociales pueden hacer que sea más fácil mantener el contacto con personas en todo el mundo.
Las aplicaciones médicas
Las redes sociales están empezando a ser adoptadas por los profesionales de la salud como un medio para la gestión de conocimientos institucionales, difundir los conocimientos y para poner de relieve los médicos y las instituciones. La ventaja de utilizar un médico dedicado a un sitio de redes sociales es que todos los miembros son seleccionados en contra de la lista de la junta estatal de licencias de los profesionales.
El papel de las redes sociales es especialmente de interés para las empresas farmacéuticas que pasan alrededor del "32 por ciento de su comercialización en dólares" tratando de influir en los líderes de opinión de las redes sociales.
Las redes sociales para el bien social
Varios sitios web están comenzando a aprovechar el poder del modelo de redes sociales para el bien social. Estos modelos pueden ser de gran éxito para la conexión de otro modo fragmentado industrias y las organizaciones pequeñas sin los recursos para llegar a un público más amplio con los interesados y apasionados usuarios. Los usuarios se benefician al interactuar con una comunidad como la mentalidad y la búsqueda de un canal para su energía y dar. Los ejemplos incluyen SixDegrees.org (Kevin Bacon).
típica estructura de un servicio de redes sociales
Básico
En general, los servicios de redes sociales permiten a los usuarios crear un perfil para ellos mismos, y se pueden dividir en dos grandes categorías: la creación de redes sociales internas (ISN) y la creación de redes sociales externos (ESN) como, por ejemplo, MySpace, Bebo y Facebook. Ambos tipos pueden aumentar el sentimiento de comunidad entre las personas. El ISN es un cerrado y privado comunidad que se compone de un grupo de personas dentro de una empresa, asociación, sociedad, el proveedor de educación y organización, o incluso una "invitación", creado por un grupo de usuarios en un ESN. El ESN está abierta / pública y la disposición de todos los usuarios de la web para comunicarse y están diseñados para atraer a los anunciantes. Los usuarios pueden añadir una imagen de sí mismos y con frecuencia pueden ser "amigos" con otros usuarios. En la mayoría de los servicios de redes sociales, tanto los usuarios deben confirmar que son amigos antes de que estén vinculados. Por ejemplo, si Alice pone a Bob como un amigo, entonces Bob tendría que aprobar la solicitud de amistad de Alice antes de que se colocaran como amigos. Algunos sitios de redes sociales tienen un "favoritos" que no necesita la aprobación de los demás usuarios. Las redes sociales por lo general tienen controles de privacidad que permite al usuario elegir quién puede ver su perfil o en contacto con ellos, etc
Características adicionales
Algunas redes sociales tienen funciones adicionales, como la capacidad de crear grupos que comparten intereses comunes o afiliaciones, subir videos, y celebrar debates en los foros. Geosocial networking da la opción de cartografía de los servicios de Internet para organizar la participación de los usuarios en torno a las características geográficas y sus atributos.
Modelo de negocios
Pocas redes sociales actualmente cobran por los Miembros. En parte, esto puede ser debido a la creación de redes sociales, que es un servicio relativamente nuevo, y el valor de su uso no se ha establecido firmemente en los clientes. Empresas como MySpace y Facebook venden publicidad en línea en su sitio web. Por lo tanto, están buscando grandes miembros, y la carga para la adhesión sería contraproducente. Algunos creen que la información más profunda que tienen los sitios de cada uno de los usuarios permitirá publicidad orientada mucho mejor que cualquier otro sitio en la actualidad. Los sitios también están buscando otras maneras de hacer dinero, como por la creación de un mercado en línea o mediante la venta de información profesional y las relaciones sociales a las empresas: como LinkedIn.
Las redes sociales funcionan con arreglo a un modelo de negocio autónomas, en la que una red social de los miembros de servir los dos roles de los proveedores y los consumidores de contenido. Esto es en contraste con un modelo de negocio tradicional, en donde los proveedores y los consumidores son distintos agentes. Los ingresos son generalmente adquirida en el modelo de negocio autónomas a través de la publicidad, pero basada en los ingresos de suscripción es posible cuando los niveles de la composición y contenido son lo suficientemente altos.
Privacidad
En las grandes redes de servicios sociales, se ha aumentado la preocupación de los usuarios acerca de dar demasiada información personal y de la amenaza de los depredadores sexuales. Los usuarios de estos servicios deben ser conscientes de los virus o el robo de datos. Sin embargo, los grandes servicios, como MySpace, con frecuencia el trabajo con la policía para tratar de evitar este tipo de incidentes.
Además, existe una percepción de amenaza de la privacidad en relación con la puesta demasiada información personal en manos de las grandes empresas o los organismos gubernamentales, permitiendo un perfil que se producen en el comportamiento de un individuo en la que las decisiones, en detrimento de una persona, puede ser adoptado.
Además, es un tema sobre el control de los datos - la información de haber sido alterado o eliminado por el usuario puede, de hecho, se mantenga y / o pasados a 3 de las partes. Este peligro se puso de relieve cuando el controvertido sitio de redes sociales Quechup cosechado direcciones de correo electrónico de los usuarios cuentas de correo electrónico para su uso en una operación de spamming.
En investigación médica y científica, pidiendo información acerca de los temas de su comportamiento normalmente es estrictamente escrutados por las juntas de revisión institucional, por ejemplo, para asegurar que los adolescentes y sus padres han informado. No está claro si las mismas reglas se aplican a los investigadores que recogen datos de los sitios de redes sociales. Estos sitios a menudo contienen una gran cantidad de datos que es difícil de obtener a través de los medios tradicionales. Aunque los datos son públicos, volver a ella en un trabajo de investigación puede ser considerado invasión de la intimidad.
Investigaciones
Los servicios de redes sociales se utilizan cada vez más en las investigaciones penales y jurídicas. La información que se publica en los sitios como MySpace y Facebook, ha sido utilizado por la policía, y para enjuiciar a los funcionarios universitarios usuarios de dichos sitios. En algunas situaciones, el contenido publicado en MySpace se ha empleado en el tribunal.
Facebook se utiliza cada vez más por la escuela y las administraciones de los organismos de represión como fuente de las pruebas en contra de los usuarios estudiantes. El sitio, el destino número uno en línea para estudiantes universitarios, permite a los usuarios crear páginas de perfil con datos personales. Estas páginas pueden ser vistas por otros usuarios registrados de la misma escuela, que a menudo incluyen residentes y auxiliares de la escuela de policía que han firmado para hacer uso del servicio.
Lista de sitios web de redes sociales
Nombre
Descripción / Localización
Usuarios registrados
Registro
Advogato[9]
Un sitio para la comunidad de desarrolladores de código abierto
13.480
Abierto
Alpinaut[10]
Red Social para los amantes de los deportes al aire libre
Desconocido
Abierto
ANobii[11]
Red Social para los seguidores de la lectura de libros
Desconocido
Abierto
aSmallWorld[12]
Comunidad privada para personas de la alta sociedad. Popular en Europa
150.000
Solo invitados
Badoo[13]
Comunidad virtual para conocer gente. Gratuito. Popular en Europa
13.054.889
Abierto a los mayores de 18 años
Bahu[14]
Popular en Francia, Belgica y Polonia
550.000
Abierto para mayores de 13 años
Bebo[15]
Popular in UK, Irlanda, Nueva Zelanda and las Islas del Pacífico
21.300.000
Abierto para mayores de 13 años
BlackPlanet [16]
Popular en Africa y América
17.000.000
Abierto
Broadcaster.com[17]
Intercambio de videos y chat con webcam
322.715
Abierto
Buzznet[18]
Musica y cultura pop
550.000
Abierto
Cake Financial[19]
Investigación
Desconocido
Abierto
Capazoo[20]
General (blogs, fotos, música, videos)
Desconocido
Abierto
CarDomain
Red Social para los entusiastas de coches
1.600.000
Abierto
Care2[21]
Activismo social
8.123.058
Abierto
Classmates.com[22]
Escuela, universidad, trabajo militar
40.000.000
Abierto
Cloob[23]
General. Popular en Iran.
1.000.000
Abierto
Consumating[24]
General
21.000
Abierto
CouchSurfing[25]
Hospitalidad
402000
Abierto
Cyworld[26]
Corea del Sur
21200000
Abierto
Dandelife[27]
Narrativas Colectivas o "intercambio de biografías"
Desconocido
Abierto
Dodgeball[28]
Móviles basados en localización de servicios. Propiedad de Google.
Desconocido
Abierto
DontStayIn[29]
Clubbing (principalmente del Reino Unido)
333000
Abierto
Experience Project[30]
Experiencias de la vida
Desconocido
Abierto
Facebook[31]
General. Popular in Canada, UK, USA, Australia y Nueva Zealanda.
97800000
Abierto para mayores de 13 años
Faceparty[32]
General. Popular en UK.
Desconocido
Abierto para mayores de 16 años
Fefo[]
General. Global.
Desconocido
Abierto para mayores de 13 años
Flickr[33]
Intercambio de fotos
4000000
Abierto (Yahoo! login)
Flixster[34]
Películas
36000000
Abierto
Fotolog[35]
Blog fotográfico. Popular en América del Sur, México, España, Estados Unidos, Portugal, Italia y Alemania
12695007
Abierto
Friends Reunited[36]
Popular en UK. Escuela, universidad, trabajo, deportes
19.000.000
Abierto
Friendster[37]
General. Popular en el sudeste de Asia.
58.000.000
Abierto para mayores de 16 años
Frühstückstreff[38]
General
12.900
Abierto
Gaia Online[39]
Anime y juegos
93.00.000
Abierto
Gather[40]
Articulos, fotografía, e intercambio de videos, asi como discusiones de grupo
450.000
Abierto
Geni.com[41]
Familias, genealogía
750.000
Abierto
Gossipreport.com[42]
Servicio de red social de cotilleos. Anónimo
50.000
Abierto para mayores de 16 años
Grono.net[43]
Popular en Polonia
13.50.000
Solo invitados
GuildCafe[44]
Juegos online
Desconocido
Abierto
Habbo[45]
General. Más de 31 comunidades en todo el mundo. Sala de chat y perfiles de usuario.
86.000.000
Abierto para mayores de 13 años
hi5[46]
General. American Latina y adolescentes asiáticos.
70.000.000
Abierto
Hospitality Club[47]
Hospitalidad
328.629
Abierto
Hyves[48]
La red social más popular en holanda, en especial para los estudiantes
5.818.642
Abierto
iLike[49]
Musica, Videos, Fotos, Blogs
25.000.000
Abierto
imeem[50]
Musica, Videos, Fotos, Blogs
16.000.000
Abierto
IRC-Galleria[51]
Popular en Finlandia
465.000
Abierto
iWiW[52]
Popular en Hungría
3.100.000
Solo invitados
Jaiku[53]
General. Propiedad de Google.
Desconocido
Abierto para mayores de 13 años
Joga Bonito[54]
Fútbol. Propiedad de Google.
Desconocido
Abierto
kaioo[55]
General, Sin fines de lucro
33.000
Abierto
LibraryThing[56]
Para amantes de los libros
214.425
Abierto para mayores de 13 años
lifeknot[57]
Intercambio de intereses, hobbies
22.000
Abierto para mayores de 18 años
LinkedIn[58]
Negocios
19.000.000
Abierto
LiveJournal[59]
Blogging
12.900.000
Abierto
LunarStorm[60]
Popuar en Suecia
1.200.000
Abierto
MEETin[61]
General
72.000
Abierto
Meetup.com[62]
General
2.000.000
Abierto para mayores de 18 años
MiGente.com[63]
Latinos
3.600.000
Abierto
Mixi[64]
Popular en Japón
9.830.000
Solo invitados
mobikade[65]
Comunidad móvil, Sólo en UK
50.000
Abierto para mayores de 18 años
MocoSpace[66]
Comunidad móvil, en todo el mundo
2.000.000
Abierto para mayores de 14 años
MOG[67]
Música
Desconocido
Abierto para mayores de 14 años
Multiply[68]
"Mundo real" de relaciones
7.500.000
Abierto para mayores de 13 años
MyBlogLog[69]
Widget de la red social
350.000
Abierto (Yahoo! login)
MyChurch[70]
Iglesias cristianas
70.306
Abierto
MyHeritage[71]
Servicios de redes sociales para la orientación de la familia
20.000.000
Abierto
My Opera Community[72]
General (blogs, albums de fotos, forums, grupos, etc.)
1.001.798
Abierto
MySpace[73]
General. Popular en todo el mundo.
110.000.000
Abierto para mayores de 14 años
myYearbook[74]
General
6.401.597
Abierto para mayores de 18 años y un año en el instituto o más
Nasza-klasa.pl[75]
Escuela, colegio y amigos. Popular en Polonia.
8.000.000
Abierto
Nabuur[76]
Voluntarios online
12.000
Abierto
Netlog[77]
Anteriormente conocido como Facebox
32.402.580
Abierto
Nexopia[78]
Popular en Canada
1.158.531
Abierto para mayores de 14 años
Odnoklassniki.ru[79]
General. Popular en Rusia
10.000.000
Abierto
OkCupid[80]
Redes sociales y citas
800.000
Abierto
orkut[81]
Propiedad de Google. Popular en Brasil e India.
67.000.000
Abierto para mayores de 18 años
OUTeverywhere[82]
Comunidad Gay/LGBTQ
Desconocido
Abierto
Passado[83]
General
4.700.000
Abierto
Passportstamp[84]
Viajes
12.000
Abierto
Phanfare[85]
Fotos de familia e intercambio de videos
Desconocido
Abierto
Plaxo[86]
Negocios
15.000.000
Abierto
Playahead[87]
Adolescentes suecos
530.000
Abierto
Pownce[88]
Páginas web, archivos y pequeñas descargas
Desconocido
Abierto
ProfileHeaven[89]
Adolescentes británicos
100.000
Abierto para mayores de 13 años
RateItAll[90]
General
Desconocido
Abierto
Reunion.com[91]
Acceso a los amigos y la familia
280.00l.000
Abierto
Ryze[92]
Negocios
250.000
Abierto
Searchles[93]
Búsqueda de redes sociales
Desconocido
Abierto
Sconex[94]
Institutos americanos
500.000
Abierto
Sermo[95]
Médicos
40.000
Abierto solo para usuarios registrados
Shelfari[96]
Libros
Desconocido
Abierto
Soundpedia[97]
Música
3.500.000
Abierto
Sportsvite[98]
Deporte recreativo
18.000
Abierto
Stickam[99]
webcam y chat.
1.305.051
Abierto
Student.com[100]
Adolescentes y colegios internacionales
850.000
Abierto
StudiVZ[101]
Estudiantes de la Universidad, sobre todo en los países de habla alemana
4.000.000
Abierto
Tagged.com[102]
General
30.000.000
Abierto
TakingITGlobal[103]
Acción social
145.000
Abierto
TravBuddy.com[104]
Viajes
760.000
Abierto
Travellerspoint[105]
Viajes
105.000
Abierto
tribe.net[106]
General
602.876
Abierto
Tuenti[107]
General. Muy Popular en España
Desconocido
Solo invitados
Twitter[108]
Micro-blogging, RSS, actualizaciones
Desconocido
Abierto
Utterz[109]
Micro-blogging, RSS, a través de actualizaciones de audio dispositivo móvil. Lee los mensajes de texto a través del teléfono.
Desconocido
Abierto
V Kontakte[110]
La red social más popular en Rusia.
7.800.000
Abierto
Vox[111]
Blogging
Desconocido
Abierto
WAYN[112]
Viajes y estilo de vida
8.000.000
Abierto para mayores de 18 años
WebBiographies[113]
Genealogia y biografía
Desconocido
Abierto
Windows Live Spaces[114]
Blogging (antes MSN Spaces)
40.000.000
Abierto
Wis.dm[115]
Preguntas y respuestas sobre cualquier cosa
20.000
Abierto
Woophy[116]
Viajes y fotografía, el sitio web para compartir fotos
23.000
Abierto
Xanga[117]
Blogs
40.000.000
Abierto
XING[118]
Negocios
5.000.000
Abierto
Yahoo! 360º[119]
Relacionada con Yahoo! IDs
4.700.000
Abierto para mayores de 18 años, (Yahoo! login)
Yahoo! Mash[120]
El nuevo Yahoo SNS - Aún en versión beta
Desconocido
Solo invitados (solo en la versión beta)
Zooomr[121]
Intercambio de fotos
Desconocido
Abierto
Véase también
La red social
Web 2.0
Comunidad virtual
Referencias
1. The Network Nation por S. Roxanne Hiltz y Murray Turoff (Addison-Wesley, 1978, 1993)
2. Jóvenes, redes sociales de amistad e identidad psicosocial: la construcción de las identidades juveniles a través del grupo de iguales [1]
3. El insaciable apetito de las redes sociales [2]
4. Diálogo entre culturas para la recuperación de la red social[3]
5. Capitalismo cognitivo y Web Social [4]
6. Sitios Web de Redes Sociales:Una Guía para Padres [5]
7. Computer-Mediated Communications [6]
Sistema de información:
Un sistema de información (SI) es un conjunto organizado de elementos, estos elementos son de 4 tipos:
Personas.
Datos.
Actividades o técnicas de trabajo.
Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no tienen por qué ser de este tipo obligatoriamente).
Todo ese conjunto de elementos interactuan entre si para procesar los datos y la información (incluyendo procesos manuales y automáticos) y distribuirla de la manera más adecuada posible en una determinada organización en función de sus objetivos. Normalmente el término es usado de manera errónea como sinónimo de sistema de información informático, estos son el campo de estudio de la tecnología de la información (IT), y aunque puedan formar parte de un sistema de información (como recurso material), por sí solos no se pueden considerar como sistemas de información, este concepto es más amplio que el de sistema de información informático. No obstante un sistema de información puede estar basado en el uso de computadoras, según la definición de Langefors[1] este tipo de sistemas son:
Un medio implementado tecnológicamente para grabar, almacenar y distribuir expresiones lingüísticas,
así como para extraer conclusiones a partir de dichas expresiones.
Generalidades
El término Sistemas de Información tiene diferentes significados:
En seguridad computacional, un sistema de información está descrito por tres componentes:[2]
Estructura:
§ Repositorios, que almacenan los datos permanente o temporalmente, tales como "buffers",[3] RAM (memoria de acceso aleatorio), discos duros, caché, etc.
§ Interfaces, que permiten el intercambio de información con el mundo no digital, tales como teclados, altavoces, monitores, escáneres, impresoras, etc.
Canales, que conectan los repositorios entre si, tales como "buses", cables, enlaces inalámbricos, etc. Una red de trabajo es un conjunto de canales físicos y lógicos.
Comportamiento:
§ Servicios, los cuales proveen algún valor a los usuarios o a otros servicios mediante el intercambio de mensajes.
§ Mensajes, que acarrean un contenido o significado hacia los usuarios o servicios.
En geografía y cartografía, un Sistema de Información Geográfica (SIG) se utiliza para integrar, almacenar, editar, analizar, compartir y desplegar información georeferenciada. Existen muchas aplicaciones de SIG, desde ecología y geología, hasta las ciencias sociales.
En representación del conocimiento, un sistema de información consiste de tres componentes: humano, tecnológico y organizacional. Bajo esta perspectiva, información se define en términos de tres niveles de semiótica. Datos que pueden ser procesados automáticamente por un sistema de aplicaciones corresponden al nivel de sintaxis. En el contexto de un individuo que interpreta los datos, estos son convertidos en información, lo que corresponde al nivel semántico. La información se convierte en conocimiento cuando un individuo conoce (entiende) y evalúa la información (por ejemplo para una tarea específica), esto corresponde al nivel pragmático.
En matemáticas dentro de la teoría de los dominios, un sistema de información Scott (por su inventora Dana Scott) es una estructura matemática que provee una representación alternativa de un dominio Scott, como un caso especial, algebraic lattices.
En matemáticas teoría de conjunto difuso, un sistema de información es un sistema de atributo-valor.
En sociología los sistemas de información son sistemas sociales cuyo comportamiento está fuertemente influenciado por los objetivos, valores y creencias de los individuos y grupos, así como por el desempeño de la tecnología.[4]
En teoría de sistemas, un sistema de información es un sistema, automatizado o manual, que abarca personas, máquinas, y/o métodos organizados de recolección de datos, procesamiento, transmisión y diseminación de datos que representa información para el usuario.
En telecomunicaciones, un sistema de información es cualquier sistema o subsistema de equipo de telecomunicaciones o computacional interconectados y que se utilicen para obtener, almacenar, manipular, administrar, mover, controlar, desplegar, intercambiar, transmitir o recibir voz y/o datos, e incluye tanto los programas de computación ("software" y "firmware") como el equipo de cómputo.[5]
Historia
El estudio de los sistemas de información se originó como una sub-disciplina de las ciencias de la computación en un intento por entender y racionalizar la administración de la tecnología dentro de las organizaciones. Los sistemas de información han madurado hasta convertirse en un campo de estudios superiores dentro de la administración. Adicionalmente, cada día se enfatiza más como un área importante dentro de la investigación en los estudios de administración, y es enseñado en las universidades y escuelas de negocios más grandes en todo el mundo.
En la actualidad, la Información y la tecnología de la Información forman parte de los cinco recursos con los que los ejecutivos crean y/o modelan una organización, junto con el personal, dinero, material y maquinaria.[6] Muchas compañías han creado la posición de Director de Información (CIO, por sus siglas en inglés Chief Information Officer) quien asiste al comité ejecutivo de la compañía, junto con el Director Ejecutivo, el Director Financiero, el Director de Operaciones y el Director de Tecnología (es común que el Director de Información actúe como Director de Tecnología y viceversa).
Tipos de sistemas de información
Según la función a la que vayan destinados o el tipo de usuario final del mismo, los SI pueden clasificarse en:
(esta clasificación obedece a un punto de vista empresarial)
Sistema de procesamiento de transacciones (TPS).- Gestiona la información referente a las transacciones producidas en una empresa u organización.
Sistemas de información gerencial (MIS).- Orientados a solucionar problemas empresariales en general.
Sistemas de soporte a decisiones (DSS).- Herramienta para realizar el análisis de las diferentes variables de negocio con la finalidad de apoyar el proceso de toma de decisiones.
Sistemas de información ejecutiva (EIS).- Herramienta orientada a usuarios de nivel gerencial, que permite monitorizar el estado de las variables de un área o unidad de la empresa a partir de información interna y externa a la misma.
Sistemas de automatización de oficinas (OAS).- Aplicaciones destinadas a ayudar al trabajo diario del administrativo de una empresa u organización.
Sistema experto (SE).- Emulan el comportamiento de un experto en un dominio concreto.
Estos sistemas de información no surgieron simultáneamente en el mercado; los primeros en aparecer fueron los TPS, en la década de los 60, y los últimos fueron los SE, que alcanzaron su auge en los 90 (aunque estos últimos tuvieron una tímida aparición en los 70 que no cuajó, ya que la tecnología no estaba suficientemente desarrollada).
Otra clasificación, según el entorno de aplicación
Entorno transaccional: Una transacción es un suceso o evento que crea/modifica los datos. El procesamiento de transacciones consiste en captar, manipular y almacenar los datos, y también, en la preparación de documentos; en el entorno transaccional, por tanto, lo importante es qué datos se modifican y cómo, una vez ha terminado la transacción. Los TPS son los SI típicos que se pueden encontrar en este entorno.
Entorno decisional: Este es el entorno en el que tiene lugar la toma de decisiones; en una empresa, decisiones se toman a todos los niveles y en todas las áreas (otra cosa es si esas decisiones son estructuradas o no), por lo que todos los SI de la organización deben estar preparados para asistir en esta tarea, aunque típicamente, son los DSS los que encargan de esta función. Si el único SI de una compañía preparado para ayudar a la toma de decisiones es el DSS, éste debe estar adaptado a todos los niveles jerárquicos de la empresa.
Aplicación de los sistemas de información
Los sistemas de información tratan el desarrollo, uso y administración de la infraestructura de la tecnología de la información en una organización.
En la era post-industrial, la era de la información, el enfoque de las compañías ha cambiado de la orientación hacia el producto a la orientación hacia el conocimiento, en este sentido el mercado compite hoy en día en términos del proceso y la innovación, en lugar del producto. El énfasis ha cambiado de la calidad y cantidad de producción hacia el proceso de producción en sí mismo, y los servicios que acompañan este proceso.
El mayor de los activos de una compañía hoy en día es su información, representada en su personal, experiencia, conocimiento, innovaciones (patentes, derechos de autor, secreto comercial). Para poder competir, las organizaciones deben poseer una fuerte infraestructura de información, en cuyo corazón se sitúa la infraestructura de la tecnología de información. De tal manera que el sistema de información se centre en estudiar las formas para mejorar el uso de la tecnología que soporta el flujo de información dentro de la organización.
Áreas de trabajo
El trabajo con los sistemas de información puede centrarse en cualquiera de estas tres áreas generales:
Estrategia de los sistemas de información.
Gestión de los sistemas de información.
Desarrollo de los sistemas de información.
Cada una de estas ramas se subdivide a su vez en disciplinas que se traslapan con otras ciencias y con otras disciplinas de la administración tales como ciencias de la computación, ingenierías, ciencias sociales y ciencias del comportamiento y la administración de negocios.
Estudio de los sistemas de información
Ciborra (2002) define el estudio de los sistemas de información como el estudio que trata la inserción y el uso de la tecnología de la información en las organizaciones, instituciones, y la sociedad en general.[7]
Muchas universidades, tales como la Universidad de Carnegie Mellon, la Universidad de California - Berkely, la Universidad de Michigan, la Universidad de Colorado, la Universidad de Syracuse, la Universidad de Geroge Mason,la Universidad de Washington, la Universidad Geroge Washington, la Universidad de Nueva York, la Universidad Claretmont, la Universidad de Toronto, la Universidad Multimedia, la Universidad de Idaho, la Universidad de LimericK, y las UTN de Argentina ofrecen actualmente grados académicos en sistemas de información y en otros campos relacionados.
Referencias y notas
Este artículo fue creado a partir de la traducción del artículo Information system de la Wikipedia en inglés, bajo licencia GFDL.

1. Langefors, Börje (1973). Theoretical Analysis of Information Systems. Auerbach.
2. (2004) {{{título}}}. ISBN 84-933336-7-0.
3. En informática, un es un área de memoria destinada para el almacenamiento temporal de datos, y se utilizan típicamente entre dispositivos con diferente velocidad de procesamiento
4. Angell, I.O. and Smithson S. (1991) Information Systems Management: Opportunities and Risks
5. Federal Standard 1037C, MIL-STD-188, and National Information Systems Security Glossary
6. Rockart et. Al (1996) Eight imperatives for the new IT organization Sloan Management review.
7. Ciborra, C. (2002) Labyrinths of Information, Oxford, Oxford University Press

Sistema experto:
Los sistemas expertos son llamados así porque emulan el comportamiento de un experto en un dominio concreto y en ocasiones son usados por estos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto.
Sistema Experto (SE)
Se puede entender como una rama de la inteligencia artificial. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción).
Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una forma fácil, reuniendo dos capacidades para poder cumplirlo:
1. Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben realizar siguiendo ciertas reglas o pasos comprensibles de manera que se pueda generar la explicación para cada una de estas reglas, que a la vez se basan en hechos.
2. Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de razonamiento que sirven para modificar los conocimientos anteriores. Sobre la base de lo anterior se puede decir que los sistemas expertos son el producto de investigaciones en el campo de la inteligencia artificial ya que esta no intenta sustituir a los expertos humanos, sino que se desea ayudarlos a realizar con más rapidez y eficacia todas las tareas que realiza.
Debido a esto en la actualidad se están mezclando diferentes técnicas o aplicaciones aprovechando las ventajas que cada una de estas ofrece para poder tener empresas más seguras. Un ejemplo de estas técnicas sería los agentes que tienen la capacidad de negociar y navegar a través de recursos en línea; y es por eso que en la actualidad juega un papel preponderante en los sistemas expertos.
Estructura básica de un SE
Un Sistema Experto está conformado por:
Base de conocimientos (BC): Contiene conocimiento modelado extraído del diálogo con el experto.
Base de hechos (Memoria de trabajo): contiene los hechos sobre un problema que se ha descubierto durante el análisis.
Motor de inferencia: Modela el proceso de razonamiento humano.
Módulos de justificación: Explica el razonamiento utilizado por el sistema para llegar a una determinada conclusión.
Interfaz de usuario: es la interacción entre el SE y el usuario, y se realiza mediante el lenguaje natural.
Tipos de SE
Principalmente existen tres tipos de sistemas expertos:
Basados en reglas.
Basados en casos o CBR (Case Based Reasoning).
Basados en redes bayesianas.
En cada uno de ellos, la solución a un problema planteado se obtiene:
Aplicando reglas heurísticas apoyadas generalmente en lógica difusa para su evaluación y aplicación.
Aplicando el razonamiento basado en casos, donde la solución a un problema similar planteado con anterioridad se adapta al nuevo problema.
Aplicando redes bayesianas, basadas en estadística y el teorema de Bayes.
Ventajas y limitaciones de los Sistemas Expertos
Ventajas
Permanencia: A diferencia de un experto humano un SE (sistema experto) no envejece, y por tanto no sufre pérdida de facultades con el paso del tiempo.
Duplicación: Una vez programado un SE lo podemos duplicar infinidad de veces.
Rapidez: Un SE puede obtener información de una base de datos y realizar cálculos numéricos mucho más rápido que cualquier ser humano.
Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad de duplicación el coste finalmente es bajo.
Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el ser humano.
Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí (cansancio, presión, etc.).
Consolidar varios conocimientos
Apoyo Academico
Limitaciones
Sentido común: Para un Sistema Experto no hay nada obvio. Por ejemplo, un sistema experto sobre medicina podría admitir que un hombre lleva 40 meses embarazado, a no ser de que se especifique que esto no es posible.
Lenguaje natural: Con un experto humano podemos mantener una conversación informal mientras que con un SE no podemos.
Capacidad de aprendizaje: Cualquier persona aprende con relativa facilidad de sus errores y de errores ajenos, que un SE haga esto es muy complicado.
Perspectiva global: Un experto humano es capaz de distinguir cuales son las cuestiones relevantes de un problema y separarlas de cuestiones secundarias.
Capacidad sensorial: Un SE carece de sentidos.
Flexibilidad: Un humano es sumamente flexible a la hora de aceptar datos para la resolución de un problema.
Conocimiento no estructurado: Un SE no es capaz de manejar conocimiento poco estructurado.
Ejemplos importantes
Dendral
Dipmeter Advisor
Mycin
CADUCEUS
R1
CLIPS, Jess
Prolog
ehsis.ikudetelemed.com
Tareas que realiza un Sistema Experto
Monitorización
La monitorización es un caso particular de la interpretación, y consiste en la comparación continua de los valores de las señales o datos de entrada y unos valores que actúan como criterios de normalidad o estándares. En el campo del mantenimiento predictivo los Sistemas Expertos se utilizan fundamentalmente como herramientas de diagnóstico. Se trata de que el programa pueda determinar en cada momento el estado de funcionamiento de sistemas complejos, anticipándose a los posibles incidentes que pudieran acontecer. Así, usando un modelo computacional del razonamiento de un experto humano, proporciona los mismos resultados que alcanzaría dicho experto.
Diseño
Diseño es el proceso de especificar una descripción de un artefacto que satisface varias características desde un número de fuentes de conocimiento.
El diseño se concibe de distintas formas:
El diseño en ingeniería es el uso de principios científicos, información técnica e imaginación en la definición de una estructura mecánica, máquina o sistema que ejecute funciones específicas con el máximo de economía y eficiencia.
El diseño industrial busca rectificar las omisiones de la ingeniería, es un intento consciente de traer forma y orden visual a la ingeniería de hardware donde la tecnología no provee estas características.
Los SE en diseño ven este proceso como un problema de búsqueda de una solución óptima o adecuada. Las soluciones alternas pueden ser conocidas de antemano o se pueden generar automáticamente probándose distintos diseños para verificar cuáles de ellos cumplen los requerimientos solicitados por el usuario, ésta técnica es llamada “generación y prueba”, por lo tanto estos SE son llamados de selección. En áreas de aplicación, la prueba se termina cuando se encuentra la primera solución; sin embargo, existen problemas más complejos en los que el objetivo es encontrar la solución más óptima.
Planificación
La planificación es la realización de planes o secuencias de acciones y es un caso particular de la simulación. Está compuesto por un simulador y un sistema de control. El efecto final es la ordenación de un conjunto de acciones con el fin de conseguir un objetivo global.
Los problemas que presentan la planificación mediante SE son los siguientes:
Existen consecuencias no previsibles, de forma que hay que explorar y explicar varios planes.
Existen muchas consideraciones que deben ser valoradas o incluirles un factor de peso.
Suelen existir interacciones entre planes de subobjetivos diversos, por lo que deben elegirse soluciones de compromiso.
Trabajo frecuente con incertidumbre, pues la mayoría de los datos con los que se trabaja son más o menos probables pero no seguros.
Es necesario hacer uso de fuentes diversas tales como bases de datos.
Control
Un sistema de control participa en la realización de las tareas de interpretación, diagnóstico y reparación de forma secuencial. Con ello se consigue conducir o guiar un proceso o sistema. Los sistemas de control son complejos debido al número de funciones que deben manejar y el gran número de factores que deben considerar; esta complejidad creciente es otra de las razones que apuntan al uso del conocimiento, y por tanto de los SE.
Cabe aclarar que los sistemas de control pueden ser en lazo abierto, si en el mismo la realimentación o el paso de un proceso a otro lo realiza el operador, o en lazo cerrado si no tiene que intervenir el operador en ninguna parte del mismo. Reparación, correcta o terapia.
La reparación, corrección, terapia o tratamiento consiste en la proposición de las acciones correctoras necesarias para la resolución de un problema. Los SE en reparación tienen que cumplir diversos objetivos, como son: Reparación lo más rápida y económicamente posible. Orden de las reparaciones cuando hay que realizar varias. Evitar los efectos secundarios de la reparación, es decir la aparición de nuevas averías por la reparación.
Simulación
La simulación es una técnica consistente en crear modelos basados en hechos, observaciones e interpretaciones, sobre la computadora, a fin de estudiar el comportamiento de los mismos mediante la observación de las salidas para un conjunto de entradas. Las técnicas tradicionales de simulación requieren modelos matemáticos y lógicos que describen el comportamiento del sistema bajo estudio.
El empleo de los SE para la simulación viene motivado por la principal característica de los SE, que es su capacidad para la simulación del comportamiento de un experto humano, que es un proceso complejo.
En la aplicación de los SE para simulación hay que diferenciar cinco configuraciones posibles:
1. Un SE puede disponer de un simulador con el fin de comprobar las soluciones y en su caso rectificar el proceso que sigue.
2. Un sistema de simulación puede contener como parte del mismo a un SE y por lo tanto el SE no tiene que ser necesariamente de simulación.
3. Un SE puede controlar un proceso de simulación, es decir que el modelo está en la base de conocimiento del SE y su evolución es función de la base de hechos, la base de conocimientos y el motor de inferencia, y no de un conjunto de ecuaciones aritmético – lógicas.
4. Un SE puede utilizarse como consejero del usuario y del sistema de simulación.
5. Un SE puede utilizarse como máscara o sistema frontal de un simulador con el fin de que el usuario reciba explicación y justificación de los procesos.
Instrucción
Un sistema de instrucción realizara un seguimiento del proceso de aprendizaje. El sistema detecta errores ya sea de una persona con conocimientos e identifica el remedio adecuado, es decir, desarrolla un plan de enseñanza que facilita el proceso de aprendizaje y la corrección de errores.
Recuperación de información
Los Sistemas Expertos, con su capacidad para combinar información y reglas de actuación, han sido vistos como una de las posibles soluciones al tratamiento y recuperación de información, no sólo documental. La década de 1980 fue prolija en investigación y publicaciones sobre experimentos de este orden, interés que continua en la actualidad.
Lo que diferencia a estos sistemas de un sistema tradicional de recuperación de información es que éstos últimos sólo son capaces de recuperar lo que existe explícitamente, mientras que un Sistema Experto debe ser capaz de generar información no explícita, razonando con los elementos que se le dan. Pero la capacidad de los SE en el ámbito de la recuperación de la información no se limita a la recuperación. Pueden utilizarse para ayudar al usuario, en selección de recursos de información, en filtrado de respuestas, etc. Un SE puede actuar como un intermediario inteligente que guía y apoya el trabajo del usuario final.
Sistemas de automatización de oficinas:
Los sistemas de automatización de oficinas, también llamados OAS por sus siglas en inglés (Office Automation Systems) consisten en aplicaciones destinadas a ayudar al trabajo diario del administrativo de una organización, forman parte de este tipo de software los procesadores de textos, las hojas de cálculo, los editores de presentaciones, los clientes de correo electrónico, etc... Cuando varias de estas aplicaciones se agrupan en un mismo paquete de software para facilitar su distribución e instalación, al conjunto se le conoce con el nombre de suite ofimática.
Modelos de OAS
Quizá el paquete de software más popular que puede ajustarse a la definición de OAS (y al de suite ofimática) sea Microsoft Office en cualquiera de sus versiones. Este software, perteneciente a la compañía Microsoft, funciona oficialmente bajo los sistemas operativos Microsoft Windows y Apple Mac OS, aunque también lo hace en Linux si se utilizan emuladores.
Existen otras suites ofimáticas disponibles para cualquier usuario que se distribuyen libremente, algunas de ellas son:
StarOffice
OpenOffice.org
KOffice
Gnome Office
Modelos OAS en la actualidad
En la actualidad, con la aparición de la filosofía de la Web 2.0 están proliferando las suites ofimáticas en línea, que no son más que aplicaciones que cumplen las mismas funciones que los clásicos OAS de escritorio, pero disponibles para ser utilizados en algún portal de Internet. Estas suites presentan la ventaja de que un usuario puede trabajar con sus propios documentos desde cualquier ordenador conectado a Internet, además, en estos sistemas suele se muy fácil compartir documentos, facilitando así el trabajo colaborativo. Algunas de estás suites son:
Google Docs y Hojas de cálculo de Google (http://docs.google.com/)
Zoho (http://www.zoho.com/)
Peepel (http://www.peepel.com/)

T
T-Systems: T-Systems es una multinacional alemana fundada en Octubre de 2000 perteneciente al grupo alemán Deutsche Telekom, opera en 24 países (Alemania, Francia, España, Sudáfrica ...) con 55.000 empleados. Sus principales clientes en la península ibérica son: Mapfre, Generalidad de Cataluña, Seat, Allianz y Prosegur entre otros.
Sedes corporativas
Las oficinas centrales se encuentran en Fráncfort del Meno (Alemania). T-Systems cuenta en España con 19 sucursales, la sede central está situada en el distrito barcelones @22. En Barcelona existen dos sedes, Edificio T-Systems en la calle Sancho de Ávila, 110-130 en régimen de alquiler al grupo Castellví desde 2001 y en la calle Espronceda, 254 - 274 finalmente una tercera sede en Martorell junto a la fábrica de Seat.
Equipo directivo
Desde diciembre de 2007 Reinhard Clemens, presidente de EDS Alemania desde 2003, es el actual CEO de la compañía. Desde el 8 de febrero de 2008 Gerard Wennemer y Andreas Knaup dirigen la compañía en España sustituyendo a Ginés Alarcón que ha sido Consejero Delegado y Director General de T-Systems en España desde Enero de 2004 hasta Febrero 2008.
Adquisiciones
En marzo 2006 T-Systems adquirió Gedas subsidiaria del grupo Volkswagen encargada de la gestión de infraestructura de nuevas tecnologías del grupo automovilístico. El proceso de integración de Gedas en T-Systems se inició el 31 de marzo de 2006 para culminar el uno de enero de 2007, fecha en la que desapareció la marca Gedas. Con esta operación T-Systems tiene una unidad de negocio de automoción donde cuenta con clientes como DaimlerChrysler y el grupo Volkswagen.
T-Systems además integró empresas como ELTEC o EyTC.
Cifras económicas
En 2003 la compañía registró un volumen de negocio de 216 millones de euros en España y Portugal, en 2006 fue de 362 millones de euros mientras la plantilla alcanzó los 3.810 empleados y en 2007 la facturación ascendió a 355 millones de euros y una plantilla de 3.650 empleados entre España y Portugal. El plan estratégico 2007-2010 de la compañía define el principal objetivo de facturar 500 millones en la península Ibérica en 2010.
Zona NorteT-Systems Zona Norte representa aproximadamente el 10% de T-Systems Iberia con una cifra de negocio superior a los 30 millones euros. Los clientes más importantes son Iberdrola, grupo MCC, Gamesa, Ikusi, Euskaltel, Gobierno Vasco, Kutxa y BBK.
Clientes
Allianz es socio tecnológico de T-Systems desde 1998 y en febrero 2008 firmó una renovación de contrato por 5 años hasta el 2013Obtenido de "http://es.wikipedia.org/wiki/T-Systems"

Tecnologías de apoyo:

Definición
Es cualquier producto (incluyendo dispositivos, equipos, instrumentos, tecnología y software)que es usado para incrementar, mantener o mejorar las capacidades funcionales de personas con discapacidad. Este tipo de tecnología puede ser común del mercado, especial o adaptado para su uso. El uso de estas tecnologías es permanente mientras exista la discapacidad del usuario.
Sinónimos
Ayuda técnica, tecnología de ayuda, tecnología de asistencia, tecnología asistencial.Obtenido de "http://es.wikipedia.org/wiki/Tecnologías_de_apoyo"
Tecnologías de la información y la comunicación:

Tecnologías de la Información y la Comunicación (TIC), Son un solo concepto en dos vertientes diferentes como principal premisa de estudio en la ciencias sociales donde tales tecnologías afectan la forma de vivir de las sociedades. Su uso y abuso exhaustivo para denotar modernidad ha llevado a visiones totalmente erroneas del origen del término.
Las tecnologías como tal no se encargan del estudio, desarrollo, implementación, almacenamiento y distribución de la información mediante la utilización de hardware y software como recursos de los sistemas informáticos. De eso se encarga la ciencia informática.
Las tecnologías de la información y la comunicación no son parte de las tecnologías emergentes, las tecnologías emergentes son eso "emergentes". Las siglas TIC son el acrónimo.
Como concepto sociológico y no informático se refieren a saberes necesarios que hacen referencia a la utilización de multiples medios informáticos para almacenar, procesar y difundir todo tipo de información, telemática, etc. con diferentes finalidades (formación educativa, organización y gestión empresarial, toma de decisiones en general, etc.).
Por tanto no trata del objeto concreto sino de aquellos objetos intangibles para la ciencia social. Por ejemplo [democracia], y NTIC son dos conceptos que viajan en una misma dirección, mientras democracia es espíritu las NTIC son métodos, recursos, libertades que ofrecen transparencia a las gestiones gubernamentales.
Definición
A diferencia de la NTIC, Las TI (Tecnologías de Informática) se encargan del diseño, desarrollo, fomento, mantenimiento y administración de la información por medio de sistemas informáticos, para información, comunicaicón o ambos. Esto incluye todos los sistemas informáticos no solamente las computadoras, éstas son sólo un medio más, el más versátil, pero no el único; también las redes de telecomunicaciones, telemática, los teléfonos celulares, la televisión, la radio, los periódicos digitales, faxes, dispositivos portátiles, etc. Todas esas herramientas electrónicas de primera mano son de carácter determinante en la vida de todo profesional, sobre todo en el docente pues es él, el que se encargará de difundir la importancia de esta nueva tecnología.
Las TIC se conciben como el universo de dos conjuntos, representados por las tradicionales Tecnologías de la Comunicación (TC) - constituidas principalmente por la radio, la televisión y la telefonía convencional - y por las Tecnologías de la información (TI) caracterizadas por la digitalización de las tecnologías de registros de contenidos (informática, de las comunicaciones, telemática y de las interfaces)”. Pero en su sentido social y no netamente informático puesto que no tendría tal caso hacernos más bolas con nuevos conceptos si estuvieramos describiendo lo mismo.
Las TIC son herramientas teórico conceptuales, soportes y canales que procesan, almacenan, sintetizan, recuperan y presentan información de la forma más variada. Los soportes han evolucionado en el transcurso del tiempo (telégrafo óptico, teléfono fijo, celulares, televisión) ahora en ésta era podemos hablar de la computadora y de la Internet. El uso de las TIC representa una variación notable en la sociedad y a la larga un cambio en la educación, en las relaciones interpersonales y en la forma de difundir y generar conocimientos.
Necesidad
La instrumentación tecnológica es una prioridad en la comunicación de hoy en día, ya que las tecnologías de la comunicación son una importante diferencia entre una civilización desarrollada y otra en vías de desarrollo. Éstas poseen la característica de ayudar a comunicarnos ya que, a efectos prácticos, en lo que a captación y trasmisión de información se refiere, desaparece el tiempo y las distancias geográficas.

Carácter dual
La tecnología es dual por naturaleza ya que el impacto de ésta se verá afectado dependiendo del uso que le de el usuario: se puede ayudar a una comunidad rural a aprender por medio de la televisión, como también se puede explotar una bomba por medio de un teléfono celular. El uso de las tecnologías también es dual ya que pueden servir como medio de información y de entretenimiento así como también sirven de capacitación y como formación de tipo laboral,pues quien domine el campo de la informática tendrá más oportunidades de ser aceptado en el mundo laboral.
En cualquiera de los dos aspectos depende de los usuarios ofrecer contenidos de calidad, ya que es la audiencia quien determina y exige el tipo de contenidos que desea. Por tal motivo se habla de la implicación de las tecnologías dentro de la construcción social. La audiencia debe ser educada de una manera creativa, para que exijan contenidos de calidad y se elimine la marginación de mercado, ya que la programación "en el caso de la televisión, la radio y la computación está dirigida sólo a ciertos consumidores.
Las TIC y el Tercer Sector
Es común también comprender las TIC en relación a su magnitud (internet) Las Tic o Ntic tienen por objeto aportar claridad para conceptos aun más abstractos como la sociedad del conocimiento, la cual se asume fue acuñada por Peeter Drucker. El surgimiento, especialmente Internet está transformando las posibilidades de acceso a la información en el mundo entero, cambiando nuestra manera de comunicar y también las rutinas diaria en los ámbitos de trabajo. Las ONG's no han quedado al margen y al contrario han visto facilitado su trabajo gracias a ellas. Las ventajas que ofrecen las NTIC a las ONG’s son:
Comunicación fácil y a bajo coste.
Espacios de difusión, ej. Ciberactivismo.
Presencia mundial en el sector.
Posibilidad de fundraising, ej Ciberfundraising.
Mayor respuesta y velocidad a sus fines
Coordinación central y distribuida para la mejor toma de desiciones
Mayor impacto
Mejor respuesta
Hay ONGs que han sacado gran partido a estas herramientas como las exitosas campañas de movilización social y captación de socios de Amnistía Internacional, Greenpeace, Intermón-Oxfam, Médicos sin Fronteras o Friends of the Earth.
Sin embargo, pese a la gran cantidad de tecnología y herramientas disponibles hay Organizaciones que están quedando al margen de este desarrollo y beneficio, y es lo que se conoce como Brecha Digital. Donde en su mayoría son por terquedad, soberbia, ignorancia, arrogancia y falta de sentido pertinente.
Así surgen ONGs dispuestas a apoyar tecnológicamente a otras para que salgan de este agujero. Entre ellas se puede destacar el caso de:
The membership organization of nonprofit professionals quienes colocan las tecnologías al servicio de sus causas.
Ordenadores sin fronteras.
Circuit riders son profesionales de ICT que pueden visitar su organización para apoyarlo con sus necesidades de IT.
Iwith.org, fundación internacional que cree en el poder de las nuevas tecnologías para desarrollar el mundo.
Delivering ICT Resources for the Voluntary and Community Sector.
Fondo mundial de Solidaridad Digital (FSD).
cencap (Propuesta interesante sobre el uso moderno de las tic's en las organizaciones).
Social Source Commons es un sitio para compartir listas de herramientas de software que usted usa, obtiene conocimiento y soporte, Y descubre nuevas herramientas. Es un lugar para conocer gente con similares necesidades e intereses y resporder a la pregunta: que herramientas usan ellos?
-Idealware provides candid Consumer-Reports-style reviews and articles about software of interest to nonprofits, centralized into a website.
Véase también
Anexo:Situación y acciones sobre de las TICs por países
Enlaces externos
InterConnection Organización sin fines de lucro que trabaja para brindar computadoras reacondicionadas a colegios, ONGs, y otras organizaciones sin fines de lucro en América Latina para reducir la brecha digital.
Comunidad TIC de Estudiantes y Profesionales de Argentina.
eNicaragua ONG que promueve el uso de las Tecnologías de Información y Comunicación (TIC) en aras del desarrollo de Nicaragua.
ANETIC es una organización , que tiene como miembros asociados a estudiantes en TIC nicaragüenses. Fomenta el uso y desarrollo de las TIC a través de la innovación científico-técnica, capacitación, promoción y actualización; formando profesionales con un mejor estándar de calidad.
Educación a Distancia UMSA.
Obtenido de "http://es.wikipedia.org/wiki/Tecnologías_de_la_información_y_la_comunicación"
Telecentro:
Para otros usos de este término véase Telecentro (desambiguación).
Un telecentro es un lugar público donde la gente puede utilizar computadoras con acceso a la Internet y otras tecnologías que ayudan a recopilar información y a comunicar con otras personas al mismo tiempo que desarrollan habilidades digitales. Cada telecentro es diferente pero todos convergen en el uso de la tecnología para el desarrollo social y comunitario, lo cual reduce el aislamiento, crea contactos, promueve temas relativos a la salud y crea oportunidades económicas. Los telecentros existen en casi todo el mundo y son a veces conocidos bajo diferentes nombres (por ejemplo centros rurales de conocimiento , infocentros, centros de tecnología comunitaria, centros multimedia comunitarios o telecentros escolares).
Enlaces externos
Red de Telecentros de Asturias
Red de Telecentros de América Latina y el Caribe.
Telecentre.org.
Red de Telecentros de Cataluña.
Red de Telecentros de Red.es.
Portal Educativo de Bolivia
Revista de Telecentros.
Red de Telecentros de Nicaragua
Transferencia Tecnológicas:
La transferencia de tecnología es un mecanismo de propagación de capacidades, normalmente de entre países con diferente nivel de desarrollo. La transferencia puede ser de objetos técnicos y artefactos, como de conocimientos.
Las nuevas tecnologías de la información, y en especial Internet, sobresalen en la transferencia tecnológica: tanto como contenidos a divulgar hasta su papel como vía para crear contactos de colaboración entre centros de investigación, empresas y entidades financieras con un coste relativamente reducido, buscando una gestión eficiente del proceso de transferencia de conocimiento. La Transferencia tecnologica se documenta habitualmente a través de convenios de colaboración entre empresas, universidades u ONGs.
El objetivo de las colaboraciones para transferencia tecnológica es el impulsar el desarrollo y crecimiento de los diversos sectores de la sociedad mediante el acceso al conocimiento y experiencia de los grupos de investigación, innovación y desarrollo tecnológico.
Los objetivos específicos son:
Transferir conocimiento y habilidades a los sectores educativo, público y privado.
Impulsar el desarrollo, formación y capacitación de excelencia de los integrantes de las diversas organizaciones e instituciones.
Incrementar el interés por las actividades de investigación y formación académica en el sector productivo de la región.
Generar nuevos espacios de inversión para el sector privado en las áreas de innovación tecnológica.
Los proyectos de transferencia tecnológica impulsan la competencia y los beneficios económicos de las instituciones y organizaciones.
El diseño y desarrollo de metodologías y plataformas tecnológicas educativas es uin ejemplo típico de Transferencia Tecnológica, Pueden verse como ejemplo las propuestas desde la Universidad UNAM o el Modelo de Transferencia Elerning que realiza la fundación Iwith.org