Komorebi AI
pexels-startup-stock-photos-212286 (1)

Ingenieros vs Investigadores. Diferencias en los proyectos de ML

Muchas veces hemos oído que para ser experto en Inteligencia Artificial necesitas tener un doctorado (PhD) o master (MsC). ¿Es correcto?

Nosotros creemos que no necesariamente.

Existen diferencias notables en los proyectos de Aprendizaje Automático (ML), entre el rigor científico de los investigadores y los ingenieros en el sector empresarial, es decir, entre el mundo académico de la Investigación y lo que necesitan las empresas.

La historia de la aplicación del aprendizaje automático es relativamente nueva y pocas empresas, fuera de las grandes tecnológicas, estaban haciendo algo en este campo hace sólo unos años.

La mayoría de las personas con experiencia en ML la han adquirido a través del mundo académico. Así es como nace Komorebi en 2019, como spin-off del Instituto de Ciencias Matemáticas del CSIC, el centro de referencia para la investigación matemática en España, y uno de los centros más punteros a nivel mundial.

Los socios fundadores son investigadores en Física, Matemáticas e Ingeniería Informática pertenecientes a la élite académica, con premios y distinciones, amplia experiencia internacional y fuertes lazos con la comunidad científica que ha liderado la revolución de la ciencia de datos.

Vigilancia Tecnológica Activa

La velocidad y aceleración de introducción de nuevos descubrimientos sobre la Inteligencia Artificial, hace necesario más que nunca contar con un proceso organizado, selectivo y permanente, de captar y analizar información para aplicarla en los proyectos y productos que ofrecemos.

Victor Gallego es nuestro Chief Research Officer y coordina un grupo de personas sistematizando la recopilación y tratamiento de la información, con el objetivo de estar siempre actualizados en cuanto al estado del arte se refiere.

La investigación nos permite desarrollar las soluciones más innovadoras y multimodales.

El ML en producción es muy diferente del ML en investigación

Sí, tenemos vocación investigadora y rigor científico, pero hemos aprendido a trabajar con las restricciones y limitaciones del mundo real en los proyectos de transferencia que hemos realizado y que ha asentado las bases de nuestra actividad de consultoría en Komorebi.

¿Cuáles son esas diferencias?

Objetivo. En la Investigación el objetivo más común se centra en las métricas de evaluación de prestación del modelo y a poder ser que alcance los resultados más avanzados (State of the Art – SOTA) en un conjunto de datos de referencia mientras que, en Producción, más asociado a un negocio, hay muchas partes implicadas o interesadas en la puesta en producción de un sistema de ML. Cada parte interesada tiene su propio objetivo y no tienen porqué correlacionarse o estar alineadas con las métricas de evaluación.

Los datos siempre traen una realidad más compleja.

Si bien en la Investigación se cuentan con datos limpios, estáticos y normalmente fijados de antemano, en producción los datos normalmente se encuentran desordenados, con cambios constantes, es una suma de datos históricos y en tiempo real, están sesgados y lo peor es que no se sabe hasta qué punto y, traen consigo una preocupación por la privacidad y la normativa.

Además, en los proyectos de NLP, en ocasiones no se pueden utilizar modelos preentrenados al carecer en lengua española un modelo específico en un contexto específico o dominio, como por ejemplo en el proyecto de Legaltech para Lefebvre.

La prioridad o el foco en computación en la Investigación está en la fase de entrenamiento, optimizarlo para hacer los máximos experimentos posibles y obtener las mejores métricas de evaluación. En Producción la prioridad es la inferencia. Queremos poder hacer el máximo número de predicciones por segundo para evitar una excesiva latencia o problemas con nuestros usuarios.

Queremos la máxima precisión en inferencia con el mínimo coste computacional. Por ejemplo, en la Banca, para la detección de fraude en tarjetas de crédito, el desafío era la necesidad de realizar inferencia de modelos en tiempo real para que el cliente no perciba retraso al realizar el pago. En este caso, una baja latencia implica un alto rendimiento.

La interpretabilidad de los modelos para las empresas es importante, especialmente, si esa IA toma decisiones claves sobre el negocio o clientes. En primer lugar, para que la empresa y los usuarios finales, entiendan por qué se toma una decisión, de modo que puedan confiar en un modelo y detectar los posibles sesgos.

En segundo lugar, es importante para que los desarrolladores puedan depurar y mejorar un modelo.

Dado que la mayor parte de la investigación en ML se sigue evaluando en función del rendimiento del modelo, los investigadores no tienen incentivos para trabajar en la interpretabilidad ni en reducir los sesgos del mismo.

Por último, resaltar que el área de MLOps en un entorno de Producción es fundamental para tener éxito y poder desplegar varios modelos a la vez y conseguir que el ML sea exitoso en la empresa.

Latest posts

Ayuda a la docencia con ChatGPT
IA & Tech

Aprende a programar con ChatGPT

ChatGPT nos ha sorprendido a todos y está cambiando cómo entendemos cada uno las tareas que hacemos y el negocio en los que trabajamos. En

Leer más »