Inteligencia Artificial: ChatGPT, Bard y Bing exponen los datos de millones de usuarios

Servicios de ciberseguridad reportan que estas herramientas también pueden convertirse en la mayor fuente accidental de filtraciones de datos.

ChatGPT, Bard y Bing exponen los datos de millones de usuarios.

ChatGPT, Bard y Bing exponen los datos de millones de usuarios.

Check Point Software

Aunque muchos de los servicios de inteligencia artificial afirman que no almacenan la información enviada, la realidad es que ya se han producido varios incidentes de cibercrimen, específicamente con ChatGPT, que han expuesto datos sensibles por vulnerabilidades en la construcción actual de estos sistemas. En ese sentido, Check Point Research ha reportado una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.

Cada vez es más común que los desarrolladores se respalden en la IA para el desarrollo de código de software. Sin embargo, además de una gran facilidad y rapidez de respuesta, estas herramientas también pueden convertirse en la mayor fuente accidental de filtraciones de datos.

La combinación de usuarios despreocupados y gran volumen de información compartida es perfecta para los ciberdelincuentes que buscan explotar brechas como esta para obtener datos como números de tarjetas de crédito, e incluso los registros completos de las consultas realizadas en estos chats. En ese sentido, Check Point Software, la división de Inteligencia de Amenazas Check Point Software Technologies Ltd, propuso una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa.

El uso de la Inteligencia Artificial generativa para crear nuevos ciberataques

inteligencia-artifical.jpg
Inteligencia Artificial.

Inteligencia Artificial.

Desde el lanzamiento comercial de ChatGPT de OpenAI a fines de 2022, Check Point Research (CPR) ha estado analizando la seguridad y protección de las herramientas populares. Mientras tanto, la industria de IA generativa se ha centrado en promover sus beneficios revolucionarios, minimizando los riesgos de seguridad para las empresas y los sistemas de TI.

El análisis de ChatGPT4 realizado por Check Point Research (CPR) ha destacado posibles escenarios para la aceleración de delitos cibernéticos. CPR ha presentado informes sobre cómo los modelos de IA pueden utilizarse para crear un flujo completo de infección, desde el spear-phishing hasta la ejecución de un código de shell inverso, puertas traseras e incluso códigos de cifrado para ataques de ransomware.

La rápida evolución de los métodos de ataque orquestados y automatizados plantea preocupaciones serias sobre la capacidad de las empresas para proteger sus activos clave contra ataques altamente evasivos y perjudiciales. Si bien OpenAI ha implementado algunas medidas de seguridad para evitar la generación de contenido malicioso en su plataforma, CPR ya ha demostrado cómo los ciberdelincuentes encuentran formas de evadir tales restricciones.

Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas. Esto implica que los datos confidenciales estarían potencialmente disponibles para un número ilimitado de usuarios, incluyendo por supuesto los propios ciberdelincuentes.

Te puede interesar