Inteligencia Artificial Generativa: cómo impactarán en las empresas los modelos de lenguaje extensos

La fintech Tarjeta Naranja X organizó el Tech4Impact, un evento IT que se celebró simultáneamente entre Córdoba y Buenos Aires y en el cuál se debatió sobre las nuevas tendencias en IA Generativa.

Inteligencia Artificial Generativa: claves para entender cómo impactarán en las empresas los modelos de lenguaje extensos
Inteligencia Artificial Generativa: claves para entender cómo impactarán en las empresas los modelos de lenguaje extensos

Tech4Impact 2024 de NaranjaX fue un evento que se celebró este jueves en el cual se realizaron más de 30 charlas, talleres y actividades sobre inteligencia artificial, desarrollo de productos, análisis de datos, programación y seguridad. Ámbito participó de la jornada tuvo lugar en Buenos Aires, aunque también ocurrió simultáneamente en la casa matriz en Córdoba.

Una de las charlas estuvo a cargo de Natalia Pérez, especialista de soluciones de Microsoft, quién brindó detalles de cómo impactarán en las empresas los modelos de lenguaje extensos.

"Básicamente lo que hacemos nosotros es ayudar a los clientes a desarrollar productos de datos e inteligencia artificial. En realidad, no nos centramos tanto en lo que son los productos, sino en cumplir con sus necesidades y ayudarlos en su día a día a generar impacto. Eso es lo que más nos importa. Y nos vamos a centrar en explicar el ciclo de vida del LLM", dijo al comienzo de la presentación, Pérez.

Los LLM se basan en el aprendizaje automático: se trata de un tipo de red neuronal. En términos más sencillos, un LLM es un programa informático al que le dieron suficientes ejemplos para que sea capaz de reconocer e interpretar el lenguaje humano u otros tipos de datos complejos. "Estamos viviendo un momento en la historia como nunca antes. Esta tecnología está solamente hace un año entre nosotros. Estamos viviendo una realmente una revolución", dijo sobre la IA.

A diferencia de modelos de aprendizaje automático tradicionales que se crean o entrenan desde cero, los LLM se generan a partir de un modelo base y se perfeccionan con datos nuevos para mejorar su rendimiento en un área en particular. A su vez, las operaciones de modelos de lenguaje de gran tamaño se conocen como LLMOps.

Estos LLMOps, son un conjunto de prácticas, técnicas y herramientas que se usan para la gestión operativa de estos modelos de lenguaje extenso en los entornos de producción. Se diferencian de las operaciones de machine learning (MLOps) que se encargan de optimizar el proceso de implementación y mantenimiento de otros modelos como lo son los aprendizaje automático (ML).

Inteligencia Generativa, LLM y el ciclo de vida

"Hoy tenemos inteligencia artificial generativa en todos los productos que usamos", le dijo al auditorio la experta de Microsoft y aseveró que "estamos viviendo un poco un cambio de paradigma, de lo que son las aplicaciones más tradicionales a lo que son las aplicaciones inteligentes". "En las aplicaciones tradicionales, tenemos una serie de interacciones que son restringidas pero en las aplicaciones inteligentes lo que queremos es poder interactuar con lenguaje natural", describió.

Posteriormente mencionó que en las inteligentes "la idea es que pueda aprender de la experiencia y que a la hora de tener que hacer cambios no sea tan doloroso, sino que sea mucho más dinámico y podemos entregar valor más rápido posible". Una de las barreras que mencionó es que cuando nos referimos a la exploración, todas las semanas hay un modelo nuevo.

"A veces es difícil encontrar documentación ni tampoco hay tantas personas con experiencia en el mercado", dijo. El segundo escollos que pueden encontrar es que, cuando una empresa adopta un modelo "este ya está entrenado. Nosotros lo único que hacemos es utilizarlo, entonces no sabe de nuestros datos en específico, tengo que darle ese contexto para que pueda responderme lo que yo quiero", explicó.

Posteriormente de esta decisión llega la etapa de la evaluación. "Muchas veces este tipo de tecnologías puede llegar a alucinar o a darme respuestas que no son del todo correctas entonces", especificó. En el campo de la inteligencia artificial, una alucinación o alucinación artificial es una respuesta de una IA que no parece estar justificada por sus datos de entrenamiento.

Por último, tenemos la etapa de operacionalización. "Se trata de cómo este proceso lo hacemos sustentable en el tiempo, como lo hacemos automatizado", relevó la especialista. "Tenemos la operacionalización para el negocio, lo que va a querer es que demos resultados rápidos, que agreguemos valor, y la otra es para IT que tiene que ver con hacerlo replicable, escalarlo, poder repetirlo y no tener componentes manuales en el medio", cerró.

Dejá tu comentario

Te puede interesar