lunes, 30 de junio de 2008

Migraciones, Fusiones y Adquisiciones (Tercera entrega)

Hola de nuevo,
Para poner fin a este serie de artículos sobre los procesos de migración (M&A), vamos a centrarnos en la metodología y la forma de plantear estos proyectos.
En primer lugar debemos definir una metodología y unos procedimientos claros que deberemos ejecutar y cumplir para la realización de nuestro proyecto de migración. Normalmente un proyecto de este tipo se suele ejecutar con una metodología en cascada similar a la que os muestro en el siguiente gráfico.






Esta metodología es la que yo denomino “La Trampa de la migración”, es un metodología que presupone toda una serie de datos y conocimiento que en muchas ocasiones desconocemos. Recardar lo que comentábamos en el capítulo 2 de este mismo artículo http://integracionycalidad.blogspot.com/2008/04/migraciones-fusiones-y-adquisiciones_10.html , donde ya avanzabamos que no podemos presuponer nada en este tipo de proyecto.
Si analizamos con un poco más de detalle esta metodología veremos que el primer paso consiste en realizar un análisis previo, para más tarde realizar un diseño de procesos, desarrollar los procesos y por último realizar el test, una vez realizado el test ya podemos dar por finalizada la migración. Sencillo, ¿verdad?, la realidad nos muestra que normalmente cuando llegamos a la fase de test suelen aparecer errores y tenemos que realizar un proceso de análisis inverso es decir:
1- Detectamos un error en fase de test (Test)
2- Comprobamos que el error no se produce por los propios procedimientos de test, si es así corregimos el error y volvemos a lanzar el test (Test).
3- Si el error no está en fase de test, comprobamos la fase de desarrollo (build), sí el error esta aquí lo corregimos y volvemos a lanzar el test (Test).
4- Si el error no está en fase de desarrollo (build), comprobamos si es un error de diseño (design), sí es así lo corregimos, entonces modificamos la parte de desarrollo correspondiente (build) y por último volvemos a fase de test (Test).
5- Por último, si el error no era de diseño (design), comprobamos sí el error es de análisis (analyze), lo corregimos, actualizamos el diseño con esa información (design), volvemos a generar los desarrollos o procedimientos necesarios (build) y volvemos a ejecutar la fase de Test (Test).
Bueno, creo que el proceso es fácil y sencillo, ¿verdad?. Ahora un par de preguntas, ¿Cuántos errores pueden aparecer en fase de test para cada procedimiento de migración?, ¿Cuántos de esos errores suelen ser motivados por un mal análisis?.
Respuesta: He aquí vuestra metodología:


Una bonita espiral que será tan grande como complejo y ambicioso sea vuestro proyecto. Ahora os dejo algunos datos de esos que tanto nos gustan:

  • Algunas suposiciones sobre los datos son erróneas - 25% del tiempo de proyecto estimado se pierde en análisis
  • El rediseño requiere de un análisis detallado - 25% de la estimación inicial se pierde en diseño
  • Problemas de proceso inesperados requieren de un re-diseño. - 50% de la estimación inicial se pierde en creación de nuevos procesos
  • Escenarios de datos inesperados rompen los desarrollos - 50% de la estimación inicial se pierde en procesos de test

Como conclusión tenemos que la gran mayoría de proyectos de migración o fusión acaban ejecutándose sobre un 150% de la estimación inicial, esto supone que la empresa ha de asumir un incremento del 50 en tiempo o en coste.


Ahora otra par de preguntas, ¿cuantos de vosotros habéis visto, oído o vivido proyectos de migración donde a mitad de proyecto se acepta por parte de la empresa un retraso en tiempo o un aumento de costes de proyecto?.


Bueno, os dejo reflexionar un poco con estos temas y enseguida continuamos.

miércoles, 25 de junio de 2008

Parón obligado

Hola a todos,

Durante el mes de junio me he visto obligado a descansar mi actividad en el blog, ya que una inoportuna rotura de menisco me ha tenido postrado en casa.


Durante este tiempo he podido leer mucho y muy variado sobre la actividad del mercado de la integración y calidad de datos, como detalles significativos destacar que ya tenemos publicado el nuevo Magic Quadrant for Data Quality Tools de Gartner.





Como curiosidades de este nuevo informe, si comparamos con el último cuadrante, publicado en junio de 2007, en el apartado de Leaders siguen apareciendo los mismos 5 fabricantes (Business Objects, DataFlux, IBM, Informatica y Trillium), entre ellos sólo trillium e Informatica han variado notablemente sus posiciones, mientras Trillium ha bajado en facilidad de ejecución, Informatica ha subido notablemente, presentandose muy pocas diferencias entre los 5 fabricantes en este cuadrante.

En el resto de apartados no ha habido mucho movimiento y practicamente todos los que aparecian en el 2007 conservan sus posiciones en 2008, sólo destacar la desaparición de Fuzzy! Informatik que fue adquirida por Business Objects a finales del 2007 y por lo tanto deja de existir como fabricante independiente.

Os dejo unos enlaces donde podéis consultar el informe completo

http://www.informatica.com/news_events/press_releases/Pages/06102008_dq_mq.aspx

http://www.sap.com/about/press/press.epx?PressID=9607

http://www.dataflux.com/Resources/resource.asp?rid=232


Como podréis comprobar la información que ofrecen los fabricantes se asemeja mucho a las que ofrecen los partidos políticos después de las elecciones, todos dicen que han mejorado y son leaders significativos en su sector.

Entrando un poco más en detalle sobre la información que nos facilita Gartner de cada fabricante, destacar que:

Business Objetcs

Desde la compra por parte de SAP, el objetivo esta siendo incrementar su cuota de mercado mediante operaciones de cross-selling en clientes SAP. La complentariedad de las aplicaciones de calidad de datos con los entornos de SAP como MDM es uno de sus puntos fuertes. Otra de las ventajas es la posibilidad de integrar la solución de calidad de datos dentro de su herramienta de integración. El producto se divide basicamente en Data Insight XI que ofre funcionalidades de profiling y Data Quality XI que ofrece las operaciones de limpieza y estandarización de datos.

DataFlux

Es uno de los fabricantes consolidados como leader del marcado de calidad. Los clientes destacan su facilidad de uso, incluso para usuarios no técnicos y ofreces buenos resultados en cuanto a performance, profiling y matching. Entre las capacidades que ofrece destacan profiling, matching, cleansing y monitoring.

IBM

La plataforma Information Server es la base para todas las funcionalidades de calidad de datos, exitiendo dos productos principales que ofrecen estas funcionalidades, IBM Information Analyzer que ofrece funciones de discovery, profiling y analysis, y IBM QualityStage que ofrece parsing, standardization y matching. Actualmente IBM esta integrando las capacidades de calidad de datos dentro de la plataforma Cognos para poder crear Data Quality Dashboards.

Informatica

Informatica Corporation ha sufrido un notable avance con su herramienta Informatica Data Quality, gran parte de este nuevo posicionamiento en el cuadrante es debido a iniciativas de cross-selling con su herramienta de integración Informatica PowerCenter, actualmente Informatica tiene una base instalada estimada de 400 clientes en calidad de datos entre sus productos Informatica Data Quality y Informatica Data Explorer (herramienta de perfildado de datos).

Trillium
Harte-Hanks Trillium ofrece un potfolio de productos formado por una herramienta de perfilado de datos (TS Discovery), Calidad de Datos (TS Quality) y una herramienta de creación de cuadros de mando de calidad (TS Insight). Actualmente disponen de una base instalada de casí 700 clientes, la mayor parte en Norte América. Actualmente tienen un acuerdo de partnership con Oracle quien ofrece funcionalidades de calidad dentro de la suite Oracle Data Integration.