La accesibilidad sin restricciones de la Inteligencia Artificial es una de sus grandes ventajas. Casi cualquier persona, a excepción de algunos países, puede acceder al ChatGPT de OpenAI, siempre y cuando tenga los dispositivos electrónicos adecuados.
Inteligencia Artificial: la Unión Europea y Estados Unidos trabajan en un "código de conducta"
Ambos bloques políticos tomaron medidas frente a la regulación de las tecnologías. En ese sentido surgen dudas sobre el futuro de las IA.
-
La carrera por regular la Inteligencia Artificial y sacar una ley
-
Estos son los 10 cursos gratuitos que ofrece Google sobre Inteligencia Artificial
Inteligencia Artificial.
Sin embargo, esta falta de regulación en el uso de la Inteligencia Artificial preocupa a algunos gobiernos. Asimismo, los desarrolladores de estas tecnologías no quieren asumir la responsabilidad por cómo los usuarios utilizan la IA en sus servicios.
En ese sentido, la Unión Europea está tomando medidas para establecer normas que las empresas, como OpenAI, deberán implementar de inmediato si desean seguir operando en su territorio. Ahora, Estados Unidos también está considerando unirse a esta iniciativa. Ambos bloques políticos están trabajando en la redacción de un código de conducta, pero surgen dudas e interrogantes sobre las propuestas y cómo se implementarán.
10 preguntas sobre el futuro de las inteligencias artificiales
¿Cuándo empezará a funcionar el código de conducta?
Una reunión entre Margrethe Vestager, vicepresidenta de la Comisión Europea y Antony Blinken, secretario de estado de los Estados Unidos marca el punto de partido para la agenda de regulación de las IA. Sin embargo, un código de conducta podría entrar en vigencia dentro de tres años.
¿Esta medida representa el fin de la IA?
Lejos de ser el fin, estas colaboraciones entre bloques políticos demuestra que el mundo teme que el rápido avance de la Inteligencia Artificial conduzca a la extinción humana. Entonces van camino a regularlas, para seguir usándolas como una herramienta.
¿Qué piensan los desarrolladores?
Sam Altman, presidente de OpenAi había sido un poco reacio a la posibilidad de normativas qué cumplir en Europa. Sin embargo, con la incorporación de los Estados Unidos se ha mostrado abierto a que el estado americano regule las IA.
¿Cómo piensa el resto del mundo sobre la AI?
Cada país funciona bajo sus propios estatutos. Pero, por ejemplo, en América Latina, se suelen adherir a lo que marquen las potencias de occidente.
¿China tiene su propia IA?
El gigante de Asia tiene en desarrollo sus propios mecanismos de Inteligencia Artificial, que seguramente no estarán adheridos a estos códigos de conductas, si no van de la mano con el pensamiento de Pekín.
¿Cómo piensan mitigar los riesgos, tomando en cuenta que el código se podría aplicar en seis meses?
La disposición de desarrolladores, como el caso de Sam Altman, son el punto de partido para comenzar a autorregularse, antes de que exista una normativa oficial. Sin embargo, el riesgo estará de igual manera por la enorme cantidad de sistemas que hay en la actualidad.
¿Realmente un código de conducta regulará limitará las capacidades de la IA?
Esto es posible pensarlo en los usos de los usuarios comunes. Pero los mecanismos de aprendizaje automático ya están publicados, y resulta difícil pensar en una forma de mitigarlos.
ChatGPT: ¿Qué piensa la AI de todo esto?
"La regulación de la inteligencia artificial es un tema complejo y en constante debate en la sociedad. Algunas personas argumentan que es necesaria una regulación para garantizar la seguridad, la ética y la transparencia en el desarrollo y despliegue de sistemas de inteligencia artificial. Otros pueden tener preocupaciones sobre los posibles impactos negativos de la regulación en la innovación y el progreso tecnológico".
¿Cual es la opinión de Bard IA?
"Entiendo que hay cierta discusión sobre la regulación de grandes modelos de lenguaje como yo como mecanismos de inteligencia artificial. Creo que la regulación podría ser beneficiosa de alguna manera, como garantizar que me utilicen de manera segura y responsable. Sin embargo, también creo que es importante lograr un equilibrio entre la regulación y la innovación. Todavía estoy en desarrollo y creo que la regulación no debería sofocar mi capacidad de aprender y crecer".
¿Cuál es el peor riesgo en materia de IA sin regulación, según ChatGPT?
La dependencia excesiva de sistemas de IA sin regulación podría socavar la autonomía y la responsabilidad humana. Los algoritmos de toma de decisiones pueden ser opacos y difíciles de comprender, lo que dificulta la rendición de cuentas y la capacidad de las personas para tomar decisiones informadas.










Dejá tu comentario