ChatGPT se cuela entre los espías: así se usa la IA de OpenAI para analizar información confidencial

Microsoft ha lanzado un modelo de lenguaje de inteligencia artificial generativa destinado a las agencias de inteligencia estadounidenses para analizar información confidencial. Este nuevo servicio ha sido creado para organizaciones como la CIA y su existencia ha sido desvelada por el medio Bloomberg.

Todavia no tiene nombre, pero va a permitir conversaciones seguras con un chatbot de similar funcionamiento al de ChatGPT y Copilot. Permitirá analizar información ultrasecreta con cero riesgos de conectividad, ya que no está conectado a internet y, lo normal, es que todos los servicios de IA se encuentren en línea y operando bajo sistemas basados en la nube.

El ChatGPT se utilizará para el espionaje

Según William Chappell, director de tecnología de Microsoft para misiones estratégicas y tecnología, en declaraciones para Bloomberg, es la primera vez que un modelo largo de lenguaje (LLM por sus siglas en inglés) ha sido utilizado de esa forma porque dependen de la nube para entrenarse. Estos modelos aprenden de los archivos cargados en ella, pero este no lo hará.

Se basa en un modelo basado en GPT- 4 y todos los elementos clave que lo componen dentro de un sistema completamente cerrado y aislado de internet. Es decir, puede leer y analizar archivos, pero no aprender sobre ellos. De esta manera, el gobierno evitará que la plataforma absorba información secreta. Según Microsoft, han pasado los últimos 18 meses desarrollando este sistema.

Para crearlo, han aprovechado una supercomputadora en lowa especializada en inteligencia artificial y su versión totalmente aislada de internet podrá ser utilizada únicamente por el gobierno de Estados Unidos. Tal y como afirma Chappell, unas 10.000 personas podrán acceder a este sistema. Lleva en funcionamiento desde el pasado jueves, pero pasará una fase de pruebas y evaluación.

Este proceso será muy importante, ya que GPT-4 puede responder con resúmenes inexactos, dar falsas conclusiones o información falsa, lo que se traduce en desinformación para la agencia de inteligencia. En otras palabras, los modelos de IA cometen errores y será fundamental las pruebas de las agencias para que den su visto bueno.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.