¿Es necesario regular de manera integral el uso de la Inteligencia Artificial? Una perspectiva actual sobre diversas normas

El avance de la Inteligencia Artificial abre un debate global sobre su regulación, los riesgos legales de su uso y la responsabilidad de quienes desarrollan estos sistemas.

Es necesario regular de manera integral el uso de la Inteligencia artificial?

Es necesario regular de manera integral el uso de la Inteligencia artificial?

Imagen creada con IA

En los últimos meses, hemos presenciado una proliferación de sanciones a abogados litigantes que citan jurisprudencia inexistente, producto de la consulta o de la generación de escritos judiciales mediante la IA. Pero esta falencia se puede replicar en diversos sectores, y de aquí la pregunta ¿es necesario regular el uso de la Inteligencia Artificial? ¿Es necesario prever la aplicación de sanciones a los proveedores ante falencias del sistema?

Cuando los ciudadanos contratamos un servicio, precisamos una cara visible para hacer reclamos ante la falencia de cualquier sistema, pero ¿cómo hacerlo si el proveedor del servicio está en ciberespacio?

Y por ello, conviene revisar algunas regulaciones vigentes a la fecha a nivel internacional, y prestar especial atención en aquellas de avanzada.

No cabe duda, la Inteligencia Artificial (IA) está transformando sectores esenciales, desde los diagnósticos médicos y la minería de datos hasta los sistemas judiciales predictivos. Esta revolución tecnológica no solo ha mejorado procesos operativos, sino que también plantea importantes desafíos éticos, legales y sociales.

En el ámbito del Derecho Internacional, la IA impulsa una discusión sobre regulación y cooperación global. A medida que los sistemas de IA adquieren mayor autonomía y capacidad de adaptación, los Estados y organismos internacionales deben establecer principios que garanticen su uso ético, seguro y responsable, sin dejar de promover la innovación tecnológica.

Mujer Inteligencia Artificial
El avance de la inteligencia artificial abre un debate global sobre su regulación, los riesgos legales de su uso y la responsabilidad de quienes desarrollan estos sistemas.

El avance de la inteligencia artificial abre un debate global sobre su regulación, los riesgos legales de su uso y la responsabilidad de quienes desarrollan estos sistemas.

Por otro lado, debe ser tenido en cuenta que siempre las tecnologías están por delante de las regulaciones, y que, mediante la utilización de éstas tecnologías, pueden ser cometidos delitos.

El gran avance dado en la Convención de Cibercrimen de Budapest en 2001, será complementado por la convención de Naciones Unidas en la materia que aún está en debate por parte de los estados miembro.

Como bien es sabido, los delitos cometidos utilizando medios digitales son por lo general transnacionales, siendo necesario no sólo establecer una tipificación de las conductas delictuales de manera armónica con el derecho interno de cada uno de los estados firmantes, sino además fijar las bases para el desarrollo de una cooperación internacional como herramienta necesaria para investigar y producir pruebas judiciales.

Así fue que mediante la Decisión 78/549 de Naciones Unidas, fue creado el comité ad hoc para el debate de la convención de uso de las tecnologías de la información con propósitos criminales –más conocida como convención de cibercrimen-. El debate de este tratado multilateral continua a la fecha y sus avances pueden ser consultados en el sitio web respectivo,

Volviendo a la IA, en estos últimos años hemos visto una proliferación de normas regulatorias de la materia. Algunas con mayor grado de detalle otras definiendo de que se trata la IA y estableciendo sus principios. Veamos aquí cuales son los últimos pronunciamientos, recomendaciones y resoluciones tanto de OCDE, Naciones Unidas y la Unión Europea.

Regulaciones y Principios Internacionales sobre la IA

El reconocimiento de la importancia de regular la IA ha llevado a diversas organizaciones internacionales a proponer lineamientos y principios rectores de la actividad:

1. Organización para la Cooperación y el Desarrollo Económico (OCDE).

A nivel supranacional, distintos organismos internacionales y entidades geopolíticas como la ONU, la UE y la OCDE están fomentando la discusión sobre la regulación de la IA.

La OCDE cuenta con un Consejo sobre Inteligencia Artificial que publico una serie de recomendaciones generales firmada por 42 países, entre los que se encuentra la República Argentina, que apuntan tanto a la responsabilidad y transparencia en la creación de la tecnología y su uso, así como el impulso estatal en la investigación, desarrollo, aplicación y cooperación internacional en temas vinculados con IA.

La OCDE ha definido la IA en su recomendación de fecha 2 de Mayo del corriente, como "sistemas basados en máquinas que generan información de salida, como predicciones o decisiones, influyendo en entornos reales o virtuales". Sus principios destacan:

  • El crecimiento inclusivo y desarrollo sostenible.
  • La transparencia y explicabilidad, para que los sistemas sean comprensibles.
  • La seguridad y solidez, durante todo su ciclo de vida.
  • La responsabilidad en la utilización de los sistemas de IA, garantizando que los desarrolladores y usuarios sean responsables de los impactos de los sistemas.

2. Organización de las Naciones Unidas (ONU)

La Resolución A/RES/78/265 aprobada en 2024, enfatiza la promoción de sistemas de IA centrados en las personas, éticos y respetuosos de los derechos humanos. Además, destaca la necesidad de:

  • Incorporar la IA en la Agenda 2030 para el Desarrollo Sostenible.
  • Reducir la brecha digital entre países.
  • Estimular la cooperación para la transferencia de tecnología y fortalecimiento de capacidades en países en desarrollo.

Pero hasta aquí, las resoluciones y recomendaciones precitadas no hacen más que definir sistemas, principios rectores de la actividad y recomendaciones a los estados.

Tal vez, la regulación más avanzada en la materia fue la dictada en la unión europea. Ésta regulación, amerita un análisis minucioso puesto que hace un abordaje integral de la materia.

3. Unión Europea (UE)

El Reglamento UE-2024/1689 establece estándares rigurosos para los sistemas de IA, abarcando definiciones claras tanto de que entendemos como sistema de IA, adentrándose en definiciones tales como el "sistema de identificación biométrica a distancia" y "deep fake".

El Reglamento se adentra también en las prácticas prohibidas para ejercer mediante la IA, como la manipulación subliminal, la explotación de vulnerabilidades humanas y la evaluación de riesgo basada en perfiles sin fundamentos verificables.

Asimismo, este reglamento establece la obligación de contar con representantes locales en el ámbito de la UE para tener respuesta ante fallas del sistema. Así es que el artículo 21 del reglamento establece que “los proveedores de sistemas de IA de alto riesgo, previa solicitud motivada de una autoridad competente, proporcionarán a dicha autoridad toda la información y la documentación necesarias para demostrar la conformidad del sistema de IA de alto riesgo con los requisitos establecidos en la sección 2, en una lengua que la autoridad pueda entender fácilmente y que sea una de las lenguas oficiales de las instituciones de la Unión, indicada por el Estado miembro de que se trate”.

Esta normativa aporta definiciones claves en muchos aspectos, y debería ser tenida como ejemplificativa para muchas otras regulaciones.

chatgpt
El reconocimiento de la importancia de regular la IA ha llevado a diversas organizaciones internacionales a proponer lineamientos y principios rectores de la actividad.

El reconocimiento de la importancia de regular la IA ha llevado a diversas organizaciones internacionales a proponer lineamientos y principios rectores de la actividad.

Implicaciones Jurídicas en la utilización de la IA

Ahora bien, adentrémonos en algunos puntos que puede traer aparejada la utilización de la IA y sus implicancias jurídicas.

El uso masivo de sistemas de IA requiere un marco de responsabilidad para prevenir abusos y garantizar la confiabilidad. La transparencia en el diseño y funcionamiento es esencial para que los usuarios y autoridades comprendan sus decisiones y limitaciones.

En materia de Propiedad Intelectual y Confidencialidad, el Reglamento de la UE impone obligaciones a los proveedores de IA para proteger la confidencialidad de los datos y secretos comerciales. Estas medidas refuerzan la confianza en la tecnología y su interoperabilidad internacional.

Pero el uso de la Inteligencia Artificial, representa también desafíos éticos. El uso de sistemas biométricos, como el reconocimiento facial, y la proliferación de "deep fakes" plantean riesgos significativos para la privacidad y la autenticidad de la información. Es necesario un enfoque regulatorio que equilibre el desarrollo tecnológico con la protección de los derechos fundamentales.

La IA representa una oportunidad sin precedentes para acelerar el desarrollo sostenible y fortalecer la gobernanza global. Sin embargo, su implementación debe estar respaldada por un marco jurídico que:

  • Garantice la protección de derechos fundamentales como la privacidad y la equidad.
  • Fomente la transparencia, seguridad y responsabilidad en el diseño y uso de sistemas.
  • Promueva la cooperación internacional para reducir desigualdades tecnológicas.

La comunidad internacional enfrenta el desafío de equilibrar la innovación con la regulación, asegurando que la IA beneficie a toda la humanidad y no profundice las divisiones existentes.

La regulación de la UE podría ser tenida como norte para cualquier regulación en la materia.

Dr. Santiago Juan Manuel Herrera

Doctor en Derecho Administrativo por la Universidad de Buenos Aires, Magister en Derecho Administrativo por la Universidad Austral y especialista en transporte y puertos.

Dejá tu comentario

Te puede interesar