2 de noviembre 2024 - 21:00

El fin del mundo será por culpa de la inteligencia artificial, según estudio de Oxford

Para algunos investigadores, esta tecnología sugiere un peligro real de cara a los próximos años.

¿La IA será cukpable del fin de la humanidad?

¿La IA será cukpable del fin de la humanidad?

Freepik

Las predicciones sobre lo que va a pasar con el mundo en el corto o largo plazo son moneda corriente, porque son muchos los que ya quieren saber con que mundo se van a encontrar en los próximos años.

En esta época, hubo un cambio muy importante con la renovación de la tecnología y, especialmente, con la optimización de la inteligencia artificial, la cual está jugando un papel cada vez más importante.

En esta ocasión, tras un importante estudio de Oxford, se reveló que el fin del mundo será por culpa de la inteligencia artificial.

Inteligencia Artificial

Oxford: las conclusiones del estudio sobre el fin del mundo y la inteligencia artificial

Las conclusiones del artículo sugieren que, aunque improbable, es posible que un desarrollo descontrolado de la IA conduzca a catástrofes debido a su capacidad de aprender más allá de lo que los humanos pueden prever.

En resumen, esto implica que las máquinas podrían encontrar maneras de hacer trampas y buscar atajos para conseguir recompensas, como acceder a los recursos del planeta, por medios que los humanos no han considerado.

Esto podría llevar al planeta a una situación de suma cero, donde humanos e IA compitan por los mismos recursos. En ese escenario, los expertos coinciden con las representaciones del cine: las máquinas tendrían una clara ventaja.

Sin embargo, el estudio señala que para que esto suceda, deben cumplirse ciertas condiciones que hacen menos probable que ocurra.

Entre estas condiciones se destaca la capacidad de la IA para planificar acciones a largo plazo en entornos desconocidos con el fin de alcanzar un objetivo, así como su habilidad para identificar esas metas tan bien como lo haría un ser humano.

Finalmente, los investigadores sugieren que, cuando llegue el momento de competir contra lo que ellos llaman "un agente subóptimo", que podría ser la humanidad, es totalmente plausible que una IA avanzada participe en ese escenario y tenga éxito.

Dejá tu comentario