Por Tomàs Baiget
Presentamos cuatro conceptos de sistemas de información, interrelacionados entre sí, que en los últimos meses vemos aparecer frecuentemente por las revistas, especialmente las de informática y gestión empresarial.
No constituyen pues la materia central de trabajo de los documentalistas, pero por la dependencia que esta profesión tiene de la informática es conveniente que se conozcan. Es más, si se quiere que el profesional documentalista vaya cubriendo todos los tipos de información necesaria en las organizaciones, es fundamental que domine esas materias, al menos para que como experto en información pueda dialogar y trabajar en equipo con los expertos informático y de organización.
Estos conceptos implican grandes cambios en los puestos de trabajo en las organizaciones. El documentalista debe conocerlos también para saber qué amenazas y qué oportunidades le esperan.
Su invención relativamente reciente en los EUA, hace que en nuestro país aún se usen en inglés. Las versiones castellanas que algunas veces usamos son, pues, muy prematuras.
En una frase rebuscada podrían relacionarse así:
“Reengineering una organización y downsizing su informática con client-server, y con outsourcing de algunas tareas de información”.
Cuya traducción completa al castellano podría ser:
“Rediseño completo del funcionamiento de una organización, reduciendo gastos mediante la distribución de los procesos informáticos implementados en microordenadores especializados conectados en red, pero con más control sobre todos ellos, y la subcontratación indefinida de tecnologías de información”.
Veamos cada concepto uno a uno:
Reengineering
Rediseño radical de la infraestructura funcional e informativa de una organización, que implica normalmente un rediseño informático.
Dadas las tendencias actuales, de un proceso de “reingeniería” es probable que se llegue a un downsizing y al modelo cliente-servidor.
El cambio en la forma de trabajar de la organización puede ser muy importante, por lo que la reingeniería coincide con la llamada gestión (o servicio, o control) de calidad total en cuanto que se trata de realizar una revisión a fondo de todas las actividades y de cuestionar todas las estructuras, involucrando a todos en la organización, desde el director general hasta el recepcionista.
El rediseñador no debe partir de la situación actual y llevar a cabo mejoras incrementales, sino planificar cada línea futura por sí misma, sin tener en cuenta limitaciones y pautas basadas en decisiones e inversiones anteriores.
Hay que desechar posibles mejoras de sólo el 10 o 15% e ir a cambios valientes que doblen la productividad con la mitad de los recursos. Muchas empresas norteamericanas han demostrado ya que esto es posible.
Las bases de partida
El concepto de reingeniería fue inventado por Michael Martin Hammer (en la foto), cuando trabajaba para CSC Index en Cambridge (Massachusetts, EUA). Más tarde Hammer fundó su propia empresa Hammer & Co. en la misma ciudad. En su artículo “Reengineering work: don’t automate, obliterate” (Trabajo de rediseño: no informatice, elimine), Harvard Business Review, v. 68, n. 4, p. 104-112, 1990, Hammer dice:
“Las empresas tienen que ser rediseñadas radicalmente para que puedan aprovechar las ventajas que ofrecen las nuevas tecnologías de la información y obtener así grandes mejoras en rendimiento. Esto implica desechar reglas y supuestos obsoletos, por fundamentales que parezcan, y encontrar otros nuevos, como por ejemplo:
- Organizar los resultados y los productos, no las tareas.
- Hacer que hagan los procesos los que usan sus resultados.
- Integrar el trabajo de tratamiento de la información con el trabajo real que produce esa información.
- Tratar los recursos geográficamente dispersos como si estuvieran centralizados.
- Conectar actividades paralelas en vez de integrar sus resultados.
- Hacer que las decisiones se tomen donde se realiza el trabajo y que desde allí se establezca control sobre el proceso.
- Obtener información en la propia fuente y sólo una vez.
Las nuevas tecnologías de la información que más pueden potenciar una reingeniería son:
- Intercambio electrónico de datos (EDI)
- Tratamiento de imágenes (p. ej. digitalización o escaneado de los archivos)
- Groupware (programas para trabajar en equipo)
- Correo electrónico y teleconferencias
- Redes de alta velocidad (banda ancha)
- Bases de datos”
Reingeniar desde fuera
Un consultor de reingeniería de Bechtel Software, San Francisco, preguntaba:
– “¿Sabe la diferencia entre un terrorista y un ingeniero de métodos?”
– “No sé, ¿cuál?”
– “Pues que con un terrorista se puede negociar”.
En la extensa bibliografía consultada por IWE se ha observado un acuerdo general en que los proyectos de reingeniería deben encargarse fuera de la empresa, puesto que el personal interno (usualmente en departamentos de métodos, sistemas de información y centros de cálculo) está demasiado habituado a determinadas rutinas como para ser capaz de hacer un rediseño creativo y libre de todo tipo de presiones, especialmente cuando se modifican los puestos de trabajo, incluidos los de los directivos.
Downsizing
Podría traducirse por dimensionamiento a la baja.
Es la sustitución de los grandes ordenadores (mainframes), que hasta ahora han sido la base de la informática en las organizaciones, por redes de PCs.
Algunos hablan de rightsizing para indicar que para algunas aplicaciones pesadas (grandes bases de datos) aún son más apropiados los minis o los mainframes.
La palabra downsizing también se usa con otro significado parecido: proceso de eliminación de puestos de trabajo técnico intermedio gracias a la introducción de programas informáticos de ayuda a la gestión [management information systems (MIS) y executive information systems (EIS)]. Ello da lugar a una pirámide jerárquica que en vez de tener forma de triángulo isósceles (con la dirección en el vértice superior y los trabajadores menos cualificados en la base) tiene los lados cóncavos o hundidos hacia adentro.
Se puede hacer un downsizing aplicando el modelo cliente-servidor.
Cliente-servidor
Arquitectura o modelo informático según el cual las aplicaciones se distribuyen entre múltiples equipos o plataformas, en contraste con la informática clásica en que todo el proceso se centralizaba en un gran ordenador o mainframe, al cual se conectaban los periféricos (impresoras, terminales, lectores de discos, etc.).
Parece que es un concepto usado ya en los principios de la informática, pero que ahora tiene un significado nuevo debido a la evolución de las tecnologías y a la disponibilidad de microordenadores. En la base de datos Inspec (considerada la mejor en informática) la referencia más antigua sobre cliente-servidor data tan sólo de 1987.
El modelo cliente-servidor divide los sistemas de información en dos partes unidas por una red: usuarios (clientes) y servicios (servidores), lo cual permite obtener sistemas más baratos, flexibles y adecuados a cada aplicación.
Se utilizan redes y software standard para distribuir las funciones entre múltiples ordenadores con diferentes sistemas operativos. En el lado de los clientes puede haber PCs (a partir del 386) y workstations (estaciones de trabajo, más potentes que los PCs), casi obligatoriamente con interfaces gráficas de usuario (gui) avanzadas de tipo Windows, y en el de los servidores ordenadores especializados en servicios concretos como bases de datos, enlaces de comunicaciones externas, etc.
Especialización es una palabra clave en esta tecnología cliente-servidor.
Los servidores están unidos a los clientes mediante una potente red, que puede ser interna (local area network o lan) o externa (wide area network o wan).
Los datos y el proceso pueden estar repartidos en cualquiera de los equipos, tanto clientes como servidores, de una forma “transparente” para el usuario (el usuario los utiliza pero no tiene que preocuparse de saber dónde están). Sin embargo la parte más importante del proceso (como bases de datos, procesos numéricos y seguridad/control) reside casi siempre en servidores.
Las bases de datos han sido la aplicación más frecuente hasta ahora, usando el standard SQL diseñado por IBM. Pero hace poco más de un año el modelo cliente-servidor se está empleando en aplicaciones más tradicionales del proceso de datos como las que incluyen transacciones (las operaciones clásicas de los centros de cálculo).
A la estructura cliente-servidor se ha llegado por tres necesidades:
- Integrar los sistemas informáticos “básicos” de la empresa (software financiero, de personal –nóminas, administración de beneficios, etc.–, control de almacenes, marketing –mailings–, ventas), con los “de superficie” como tratamiento de texto, hojas de cálculo y pequeñas bases de datos en microordenador.
- Gestionar y usar una gran cantidad de bases de datos y servicios de la empresa por parte de un número importante de empleados en distintos departamentos.
- Interconectar una variedad de ordenadores grandes, minis y micros.
Ventajas
Los beneficios varían según cada caso, pero en general se puede decir que se gana en:
- Se aprovecha completamente la potencia disponible gracias a un dimensionamiento exacto escalable. Si hace falta más se añade más.
- La posibilidad de compartir todos los recursos hace que se obtenga el máximo rendimiento de todas las instalaciones. Igualmente, se pueden compartir las bases de datos y toda la información en general, con lo que se eliminan duplicidades costosas y se facilita la gestión de altas, bajas y modificaciones.
- Se pueden modificar y cambiar los equipos según las necesidades en cada momento. Es fácil emigrar de una configuración a otra.
- Los sistemas tienden a ser abiertos y a no depender de marcas concretas, con lo cual son intercambiables.
- Todos los clientes autorizados pueden tener acceso a todos los servidores. Si es necesario, el acceso a información confidencial se restringe mediante una contraseña.
- La microinformática es más barata por ser más abundante. Igualmente, el software para ordenadores pequeños es más barato.
Gestión
Todos los consultores coinciden en recomendar que el paso de la informática centralizada a la distribuida se haga con precaución, después de una concienzuda planificación, puesto que se trata de una tecnología que está aún en sus inicios. La transición tiene que hacerse por partes y poco a poco, de forma que se puedan ir solucionando los problemas en sucesivas fases piloto, aunque siguiendo una planificación estratégica general.
Se señala también que los costes de aprendizaje por parte del personal informático son importantes y no deben infravalorarse.
Una posible cuestión es si al descentralizar la informática se descentraliza también su responsabilidad, pero ello no es así. En este aspecto no varía nada, y en las empresas todo el sistema sigue dependiendo del departamento de informática.
Se espera una gran introducción de la tecnología cliente-servidor en los próximos 3 años, especialmente en grandes organizaciones, que son las potencialmente más beneficiadas con el cambio.
Según el estudio de la empresa inglesa Ovum “Client-server computing: commercial strategies“, los productos con la arquitectura cliente-servidor representarán el 23% del software disponible en 1996. El sector bancario está haciendo una transición general a esta tecnología, previéndose un aumento del 30% anual en la compra de PCs en este mismo período de tiempo.
Outsourcing
Es la subcontratación de determinadas funciones de una organización, especialmente las relacionadas con sistemas y tecnologías de la información: informática, telecomunicaciones, documentación, etc., a empresas externas, con una duración indefinida.
Ahí está la novedad del tema: antes sólo se subcontrataban trabajos esporádicos (como por ejemplo estudios de consultoría) y tareas mecánicas; en cambio ahora se trata de los servicios internos más “sensibles” como los que manejan y transportan la información de la organización. Precisamente este aspecto de trabajo delicado hace que el outsourcing se considere más un matrimonio que un contrato, puesto que en parte el contratante se pone en manos del suministrador de servicios.
Siempre se puede cambiar de pareja pero a costa de problemas con la separación.
Con el outsourcing, la dirección puede desprenderse de costes fijos, aumentar el rendimiento de los recursos restantes y concentrarse mejor en las tareas principales, las de verdadero interés para los objetivos a alcanzar.
Además de costes inferiores, a veces la subcontratación tiene las ventajas inherentes a la especialización: trabajo mejor realizado, usando las últimas novedades, sugiriendo a la organización contratante nuevas oportunidades e iniciativas para ahorrar dinero, etc.
Si prolifera la subcontratación de los servicios de documentación, aumentarán las oportunidades para los documentalistas que se establezcan por su cuenta, de los cuales en los EUA hay ya un buen número.
Nota: Estos conceptos han sido extraídos por el autor de un gran número de revistas, entre los cuales destacan:
Information Society, Financial Times, Computerworld, Manufacturing Systems, Business Quarterly, Journal of European Business e InfoWorld.
—
Esta información se publicó en la newsletter Information World en Español (IWE), n. 14, mayo de 1993, pp. 15-17.