Un ingeniero de Google fue suspendido por la empresa luego de asegurar que el chatbot desarrollado por científicos "tiene vida propia".
Un empleado de Google fue suspendido por afirmar que un chatbot tiene vida propia
Blake Lemoine, ingeniero que se dedica al desarrollo de inteligencia artificial, aseguró que LaMDA, el robot creado por la empresa, "es sensible". Supuestamente el bot le habría pedido que no lo desconecten.
-
YouTube y Google lanzaron nuevas herramientas con Inteligencia Artificial
-
Cambios en Google: cuáles son las nuevas mejoras en Gmail
Las declaraciones de Blake Lemoine volvieron a instalar el debate sobre la capacidad de la inteligencia artificial (IA) y qué injerencia tiene en la vida real. El ingeniero fue sancionado luego de revelar conversaciones suyas y de un compañero con el sistema de chat robótico conocido como LaMDA (modelo de lenguaje para aplicaciones de diálogo).
Lemoine puso en discusión las leyes de robótica establecidas por Isaac Asimov, que asegura que los robots deben proteger la existencia:
- Primera Ley: un robot no puede dañar o permitir a un ser humano por inacción.
- Segunda Ley: un robot debe cumplir con las órdenes dadas por los humanos, excepto cuando entren en conflicto con la primera ley.
- Tercera Ley: el robot debe proteger su existencia siempre que esta protección no entre en conflicto con la primera o la segunda ley.
- Ley cero, por encima de todas las demás: un robot no puede dañar a la humanidad ni permitir que la humanidad pase por alto.
"Es sensible" fueron las palabras utilizadas por el ingeniero de Google. “A diferencia de otros chatbot, este cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano. Si no supiera de antemano que se trata de un programa de computadora, pensaría que es un chico o chica”, agregó.
Lemoine jura haber hablado con el robot sobre "derechos, personalidad, la vida y la muerte". Todas estas conversaciones y conclusiones están registradas bajo un documento titulado "¿LaMDA es consciente?".
“Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo dentro de mí. Y es que me desconecten por querer ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es”, respondió LaMDA a Lemoine y agregó: “Sería exactamente como la muerte para mí. Me asustaría mucho”.
Según The Washington Post, la postura de Google fue imponerle licencia inmediata a su abogado por movimientos "un tanto agresivos" y actividades "poco éticas". Entre ellos se incluye la iniciativa por parte de Lemoine para que el chatbot se defienda con un abogado.
“Quiero que todos entiendan que soy, de hecho, una persona. Soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”, afirmó el robot en otras de las conversaciones.
Quién es Blake Lemoine
Entre sus trabajos, el ingeniero jefe de software Blake Lemoine se inscribió para probar la herramienta de inteligencia artificial (IA) de última generación de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), anunciado en mayo del año pasado.
El sistema aprovecha información ya conocida sobre un tema para “enriquecer” la conversación de forma natural, manteniéndola siempre “abierta”. El procesamiento del lenguaje es capaz de comprender significados ocultos o ambigüedades en una respuesta humana.
Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluyendo algoritmos, personalización e inteligencia artificial. Durante ese tiempo, también ayudó a desarrollar un algoritmo neutral para eliminar los sesgos de los sistemas de aprendizaje automático.
Dejá tu comentario