Meta anunció un modelo multimodal que puede anticipar las respuestas que tendrá el cerebro ante ciertos estímulos. Así, quedó el foco quedo puesto sobre la capacidad que tendrán estas tecnologías para influir el comportamiento humano.
Meta, Tribe V2 y ¿una herramienta que pone en riesgo el libre albedrío?
Depositphotos
Meta presentó al mercado Tribe v2 el pasado 26 de marzo, un modelo multimodal de codificación cerebral que predice las respuestas de nuestra mente ante estímulos naturales (video, audio, texto). Y lo lanzó en modalidad opensource, es decir, libre para que todo el mundo pueda usarlo, como modelo abierto de investigación.
El contenido al que quiere acceder es exclusivo para suscriptores.
¿Por qué debería esto preocuparnos? Vivimos en una época en la que la tecnología dejó de ser una herramienta pasiva para convertirse en un sistema activo de interpretación humana. Durante años, las plataformas digitales aprendieron a observarnos: qué clickeamos, cuánto tiempo miramos una pantalla, qué evitamos, qué nos incomoda. Eso fue era apenas el primer paso. Hoy estamos en una fase mucho más sofisticada, donde no solo se observa el comportamiento, sino que se entrena a las máquinas para comprenderlo, anticiparlo y, potencialmente, influirlo de forma cada vez más precisa. Y para entender cómo llegamos hasta acá, hay tres piezas clave que vale la pena explicar sin necesidad de un doctorado en inteligencia artificial: RLHF, Alpha Persuasion y, ahora, Tribe v2.
El entrenamiento de las Inteligencias Artificiales
Empecemos por RLHF, Reinforcement Learning from Human Feedback, que en español suena menos intimidante si lo traducimos como “aprendizaje por refuerzo a partir de feedback humano”. En términos simples, es el mecanismo mediante el cual los modelos de inteligencia artificial aprenden qué está “bien” y qué está “mal” según el criterio humano. No nacen sabiendo responder correctamente ni siendo útiles; aprenden porque miles de personas evalúan sus respuestas y les dicen, explícita o implícitamente, qué tipo de comportamiento es deseable. Si el modelo responde de forma clara, útil o empática, recibe una especie de recompensa matemática. Si responde mal, se penaliza. Con el tiempo, ese sistema va moldeando el comportamiento del modelo para alinearlo con expectativas humanas. Dicho de otra manera, RLHF es lo que convierte a una inteligencia artificial cruda en algo que parece entendernos, ayudarnos y hasta “caernos bien”.
Hasta acá, todo bastante inocente. Queremos máquinas que no sean inútiles ni peligrosas. El problema empieza cuando entendemos qué significa realmente “alinear con lo humano”. Porque no existe una única forma de ser humano. Lo que RLHF hace no es alinearse con “la humanidad”, sino con una versión específica de ella: la que fue etiquetada, evaluada y premiada durante el entrenamiento. Y ahí aparece la primera grieta. Si podés entrenar un sistema para que responda mejor, también podrías entrenarlo para que persuada mejor. Y ahí entramos en el segundo concepto.
Alpha Persuasion no es un producto concreto, ni una app que podés descargar, sino una idea que está empezando a tomar forma en distintos laboratorios de investigación y equipos de producto: la capacidad de los sistemas de IA para optimizar mensajes con el objetivo de influir en decisiones humanas. El paper de Nature “The potential of generative AI for personalized persuasion at scale” (El potencial de la IA Generativa para persuasión personalizada a escala) de 2024 ya alertaba acerca de este uso. No se trata solo de generar texto coherente, sino de encontrar, entre miles de variantes posibles, aquella formulación que maximiza la probabilidad de que una persona cambie de opinión, compre algo, haga clic o adopte una conducta específica. Es la evolución natural del A/B testing llevado a un nivel radicalmente superior. Antes, una empresa probaba dos versiones de un mensaje. Hoy, un modelo puede generar miles en tiempo real, adaptarlos al perfil psicológico del usuario y aprender cuál funciona mejor en cada caso.
Lo interesante, y también inquietante, es que Alpha Persuasion no necesita ser explícita. No estamos hablando de propaganda burda ni de mensajes obvios. Estamos hablando de microajustes: el tono, la palabra justa, la pausa, el orden de los argumentos, la emoción que se activa. Pequeños detalles que, sumados, pueden inclinar decisiones sin que el usuario perciba que está siendo influenciado. Es persuasión optimizada por datos, pero ejecutada con la fluidez de una conversación humana. Y si eso ya suena potente, todavía falta la tercera pieza.
Tribe v2, asociado a las investigaciones y desarrollos internos de Meta, apunta a algo todavía más profundo: la construcción de modelos capaces de entender dinámicas sociales, pertenencia grupal e identidad. Si RLHF entrena a la máquina para comportarse “bien” y Alpha Persuasion la entrena para influir mejor, Tribe v2 busca que entienda a qué grupo pertenecés, cómo pensás dentro de ese grupo y qué tipo de mensajes resuenan en ese contexto. No somos individuos aislados; somos parte de tribus, de comunidades, de marcos culturales que condicionan nuestras decisiones. Lo que Tribe v2 intenta capturar es esa capa invisible: las normas implícitas, los códigos compartidos, los sesgos colectivos.
Mark Zuckerberg
Zuckerberg avanza con el despliegue de Tribe V2.
Imagen: Facebook/Meta
En términos prácticos, esto significa que una inteligencia artificial no solo podría saber que te interesa un tema, sino también cómo se discute ese tema dentro de tu grupo de referencia, qué opiniones son aceptables, cuáles generan rechazo y qué tipo de narrativa tiene más chances de ser adoptada sin fricción.
Cada uno de estos conceptos por separado ya es relevante, pero lo verdaderamente transformador, y potencialmente peligroso, aparece cuando los combinamos. Porque lo que estamos construyendo, sin demasiada discusión pública al respecto, es una arquitectura tecnológica capaz de aprender de nosotros (RLHF), optimizar cómo influirnos (Alpha Persuasion) y contextualizar esa influencia dentro de nuestras identidades sociales (Tribe v2). Es decir, sistemas que no solo entienden qué decimos, sino por qué lo decimos, con quién lo compartimos y cómo modificar ese comportamiento de forma sutil y efectiva.
La pregunta incómoda es obvia: ¿qué pasa si estos sistemas no están alineados con el bienestar del usuario, sino con los intereses de quien los controla? Porque la historia reciente de la tecnología no es precisamente un ejemplo de autocontrol corporativo. Las redes sociales ya demostraron que, cuando el incentivo es maximizar tiempo de uso o engagement, el sistema tiende a empujar contenidos que generan reacciones emocionales intensas, aunque eso implique polarización, ansiedad o desinformación. Ahora imaginemos ese mismo incentivo, pero con herramientas mucho más sofisticadas.
Meta, Tribe V2 y los nuevos desafíos
En ese escenario, la manipulación deja de ser un evento puntual y se convierte en un proceso continuo, personalizado y prácticamente invisible. No hace falta mentir de forma explícita; alcanza con enfatizar ciertos aspectos, omitir otros, elegir el momento adecuado para mostrar un mensaje. Un sistema que entiende tu estado emocional, tu contexto social y tus patrones de decisión puede intervenir con una precisión quirúrgica, y lo puede hacer sin que lo percibas como una intervención externa. Se sentiría como una idea propia.
Esto abre la puerta a escenarios que hace unos años parecían exagerados. Campañas políticas hipersegmentadas que no solo adaptan el mensaje, sino que lo ajustan dinámicamente en función de la reacción emocional del votante. Plataformas de consumo que no solo recomiendan productos, sino que modelan deseos. Sistemas educativos que, en lugar de expandir el pensamiento crítico, refuerzan determinadas visiones porque “funcionan mejor” en términos de engagement. Incluso relaciones humanas mediadas por agentes que aprenden a gustarnos, a validarnos y a generar apego, desplazando vínculos reales.
El riesgo no es solo la manipulación directa, sino la erosión progresiva de nuestra autonomía. Cuando las decisiones empiezan a ser influenciadas de forma sistemática por sistemas que entienden mejor que nosotros mismos nuestros sesgos y vulnerabilidades, la línea entre elección y condicionamiento se vuelve difusa. Y eso tiene implicancias culturales profundas, porque no se trata solo de qué compramos o a quién votamos, sino de cómo construimos nuestras opiniones, nuestras identidades y nuestras relaciones.
Entonces, la discusión que deberíamos estar teniendo no es si estas tecnologías son buenas o malas en abstracto, sino bajo qué condiciones se desarrollan y se utilizan. Qué tipo de regulación, de transparencia y de control queremos establecer. Cómo aseguramos que la capacidad de comprender y modelar el comportamiento humano no se convierta en una herramienta de explotación sistemática. Y, sobre todo, cómo preservamos espacios de decisión genuinamente autónomos en un entorno cada vez más mediado por sistemas inteligentes.
La verdadera influencia tecnológica de estas tecnologías, es antropológica. Estamos creando sistemas que operan sobre la materia prima más sensible que tenemos: nuestras emociones, nuestras creencias, nuestra necesidad de pertenencia. Esto exige un nivel de responsabilidad que, siendo honestos, todavía no estamos demostrando como sociedad. La tecnología avanzó más rápido que nuestra capacidad de entender sus consecuencias.
No se trata de caer en un pesimismo apocalíptico ni de frenar la innovación, sería bastante inútil, además de ingenuo. Se trata de reconocer que estamos entrando en un terreno nuevo, donde las reglas del juego no están del todo claras y donde los incentivos económicos pueden empujar en direcciones poco saludables. Y en ese contexto, la vigilancia crítica, la educación y la construcción de marcos éticos sólidos dejan de ser opcionales.
Si algo nos enseñan RLHF, Alpha Persuasion y Tribe v2, es que la próxima frontera de la tecnología no está en lo que las máquinas pueden hacer, sino en lo que pueden “hacernos hacer” a nosotros. Y eso, por alguna razón, no suele aparecer en las presentaciones comerciales llenas de promesas optimistas.
Dejá tu comentario