El aumento de las capacidades de la inteligencia artificial y el comportamiento de algunos sistemas generó "señales de advertencia" de parte de un experto durante una cumbre este martes en París. El pronóstico indicó que los responsables políticos deberían actuar para una mayor regulación de la herramienta.
Expertos advierten por "señales de alerta" ante el rápido avance de la inteligencia artificial
Desde una cumbre de la UNESCO, se destacó la importancia de tomar medidas para controlar posibles fallas de la IA. Además, se mencionaron regiones del mundo dispuestas a regular la IA.
-
Soberanía digital de la inteligencia artificial: definir el rol estratégico en la cadena de valor
-
La industria de tecnología en India movilizará más de u$s300.00 millones para liderar la carrera en IA
Desde una cumbre de la UNESCO en París destacaron casos donde la IA envío correos electrónicos sin intervención humana.
El informático Stuart Russell se pronunció en una conferencia organizada por la UNESCO y la Asociación Internacional para una IA Segura y Ética (IASEAI), donde pidió a los asistentes a "imaginar" que los sistemas desarrollados empezaran a presentar fallas, inclusive algunas potencialmente "peligrosas".
"Imaginen, hipotéticamente, que el mundo estuviera desarrollando algo parecido a la AGI (inteligencia artificial general) y estableciéramos pruebas", comenzó Russell. Luego, instó a los presentes a "imaginar que esos sistemas empezaran a fallar todas esas pruebas y a comportarse de forma peligrosa".
Expertos advierten sobre el rápido avance de la inteligencia artificial
"Estoy seguro de que responderíamos a esas grandes señales de advertencia y alarmas, y tomaríamos medidas para controlar esta tecnología", afirmó. El investigador británico, profesor en la Universidad de California en Berkeley, describió problemas como los "agentes" autónomos de IA que podrían escapar o intentar escapar del control humano
Algunos incluso le enviaron correos electrónicos sin intervención humana para anunciar que habían alcanzado la consciencia o que merecían derechos. También destacó casos de la llamada "psicosis por IA", en los que conversaciones con chatbots llevan a algunas personas a actuar de manera irracional o a hacerse daño.
En esa línea, advirtió que la carrera empresarial y geopolítica por desarrollar sistemas cada vez más potentes podría agravar estos problemas. Sin embargo, Russell no se mostró totalmente pesimista y afirmó tener "la sensación de que el péndulo vuelve a inclinarse" hacia gobiernos y empresas tecnológicas que toman en serio la seguridad de la IA, tras la cumbre mundial celebrada la semana pasada en India.
Las llamadas "potencias intermedias", más allá de EEUU y China, están abiertas a regular la inteligencia artificial de forma más estricta, indicó el experto, citando como ejemplo la Unión Europea (UE). Añadió que los dirigentes de importantes empresas tecnológicas, entre ellas Google y Anthropic, plantearon la idea de poner en pausa la carrera tecnológica si se puede convencer a sus competidores.
Más de 80 países abogaron por una inteligencia artificial segura, fiable y sólida durante la cumbre en la India
Más de 80 países abogaron este sábado por una inteligencia artificial (IA) “segura, fiable y sólida” durante la cuarta megacumbre celebrada en India. Mientras algunas naciones, como EEUU, rechazan categóricamente cualquier intento de gobernanza, organizaciones como la ONU y otros líderes mundiales pidieron ver a la herramienta bajo una visión colaborativa y compartida.
“Promover una IA segura, fiable y sólida es clave para construir confianza y maximizar los beneficios económicos y sociales”, reza la declaración suscrita por 86 países y dos organizaciones internacionales. Si bien el comunicado no incluye compromisos concretos, destaca iniciativas voluntarias, como mancomunar capacidades de investigación en IA a nivel internacional.
En las redes sociales oficiales del evento, indicaron que las naciones participantes comparten "una visión global compartida para una IA colaborativa, confiable, resiliente y eficiente".





Dejá tu comentario