La ciencia de datos, una profesión con gran proyección

Foto: Ilustrativa

La ciencia de datos, una profesión con gran proyección

FacebookTwitterGoogle+WhatsApp

La Prensa en Línea

México.- El científico de datos será uno de los profesionales con mayor demanda y proyección para los próximos años, con un amplio campo de trabajo en los sectores económico, financiero, industrial, comercial y de servicios, siendo una disciplina transversal y multidisciplinaria, afirmó el investigador Leonid Sheremetov.

Según Mckinsey & Company, consultora estratégica global que se especializa en resolver problemas de administración estratégica de empresas, gobiernos e instituciones a nivel mundial, para 2018 se espera una demanda de 1.5 millones de nuevos científicos de datos sólo para Estados Unidos.

En México se carece de estimaciones, pese a que la formación de esos profesionales resulta fundamental para el desarrollo y el combate al rezago económico, ya que la eficiencia en la toma de decisiones está sustenta en la aplicación de técnicas de procesamiento digital, aprendizaje automático y optimización de operaciones, con lo que sería posible incrementar de cinco a 10 por ciento la productividad de las empresas, así como ganar mercados y elevar ganancias.

En el X Aniversario de la Licenciatura en Tecnologías y Sistema de la Información, de la Unidad Cuajimalpa de la Universidad Autónoma Metropolitana (UAM), el doctor en Ciencias Técnicas por el Presídium de la Comisión Suprema de Certificación de la Federación Rusa señaló que los científicos de datos“no son estadistas, computólogos ni matemáticos, sino un poco de todo”.

Esta ciencia es un campo multi e interdisciplinario en rápida evolución que se involucra con ámbitos del conocimiento que van desde la biología hasta la astronomía y que utiliza métodos de conjunción de técnicas de adquisición, análisis y visualización de información para extraer conocimiento y dar soporte a la toma de decisiones eficientes en los niveles empresarial, productivo o financiero.

El objetivo es la extracción de conocimiento y leyes fundamentales a partir de datos obtenidos de manera variada, ya sean estructurados –en forma digital de reservorios– o no estructurados –voz, sonido, imagen, texto–. Es una prolongación de la estadística y el pronóstico, así como de nuevas ramas como la inteligencia computacional y el aprendizaje automático.

En la ponencia Ciencia de datos: retos y oportunidades, el especialista explicó que esa disciplina es el proceso de exportación y análisis automático o semiautomático de grandes cantidades de información con el fin de descubrir tendencias y patrones significativos, usando técnicas matemáticas y computacionales que posibilitan el descubrimiento de conocimiento.

El investigador, líder de Proyectos de la Gerencia de Ingeniería de Yacimientos del Instituto Mexicano del Petróleo (IMP), comentó que los datos se han convertido en el nuevo petróleo, pues son como una materia prima que se puede extraer y refinar.

Otras aplicaciones de esa rama científica se sitúan en ámbitos como las ciudades y edificios inteligentes, monitoreo del consumo eléctrico y generación de fuentes combinadas de energía, clasificación de imágenes médicas y navegación de robots o conducción de autos.

Según la revista Forbes, sólo se analiza 0.5 por ciento de todos los datos generados y hace 20 años en todo el mundo se tenía guardada la misma cantidad de información que hoy en día transita a través de Internet, mientras que para 2020 se proyecta alcanzar 50 Zettabytes (unidad de almacenamiento de información equivalente a 1021bytes).

El poder de las computadoras también se ha incrementado ostensiblemente con las súper computadoras Petascale, que es un sistema computacional capaz de alcanzar representaciones de un Petaflop (medida de la velocidad de procesamiento de una computadora que se expresa como 1,000 billones de operaciones flotantes por segundo) y la súper computadora china Sunway TaihuLight, con un índice de navegación de 93 Petaflops.

Para 2020 se espera desarrollar computadoras exascale, capaces de alcanzar al menos un Exaflop (equivalente a 1,000 Petaflops), con lo que podrían igualar o incluso superar la potencia de procesamiento del cerebro humano a nivel neuronal.

Esta creciente disponibilidad de espacio de almacenamiento y de velocidad de procesamiento –afirmó– ha permitido vislumbrar una nueva era de desarrollo científico y tecnológico, pues la creación de nuevo conocimiento se da a partir de la observación de regularidades en volúmenes muy grandes de datos.

El doctor Sheremetov es especialista en aplicaciones de técnicas de inteligencia computacional, redes neuronales, lógica difusa, algoritmos genéticos e ingeniería de datos y autor de más de cien desarrollos tecnológicos y de seis marcas registradas.