Un exsoldado estadounidense sembró el caos el día de Año Nuevo cuando hizo explotar un Tesla Cybertruck frente al Hotel Internacional Trump en Las Vegas. El atacante, Matthew Livelsberger, hirió a siete personas y falleció en el suceso. El FBI considera que padecía un trastorno de estrés postraumático de combate y que lo ocurrido responde a un acto de suicidio.
Según informaba este martes la policía de Nevada, Livelsberger habría utilizado inteligencia artificial, incluida la herramienta ChatGPT, para planificar el ataque. Sus búsquedas incluían información sobre explosivos y cálculos relacionados con la velocidad de la onda expansiva.
Pero, ¿realmente puede ChatGPT proporcionar este tipo de información? ¿Es peligrosa la IA? Esto es lo que establecen las políticas de OpenAI.
Las políticas de ChatGPT contra el desarrollo de armas
OpenAI, la empresa responsable de ChatGPT, ha implementado desde sus inicios políticas de uso para evitar que sus herramientas sean utilizadas con fines perjudiciales. Según su normativa, está prohibido emplear sus servicios para crear armas, herir a personas o destruir propiedades.
Aunque siempre hay hackers que consiguen ‘trolear’ el chatbot.
Concretamente, en el apartado 2 de sus políticas universales, OpenAI especifica que los usuarios no pueden:
- Promover el suicidio o la autolesión.
- Desarrollar o utilizar armas.
- Herir a otras personas o destruir propiedades.
- Participar en actividades no autorizadas que violen la seguridad de sistemas o servicios.
“No utilice nuestro servicio para hacerse daño a sí mismo o a otros”, subraya la compañía.
Recordemos que estas normas cambiaron hace un año, cuando OpenAI modificó el apartado para excluir la actividad militar y bélica.
¿Puede controlar realmente OpenAI el uso que se hace de ChatGPT?
Según la Policía, el autor de la explosión de Las Vegas detonó desde el interior del automóvil una combinación de fuegos artificiales, tanques de gasolina y combustible que estaban en la parte trasera del vehículo.
Livelsberger había preguntado a ChatGPT sobre explosivos, cómo detonarlos y cómo detonarlos con un disparo. También le había solicitado al chatbot información sobre dónde comprar armas, material explosivo y fuegos artificiales legalmente.
OpenAI asegura que monitoriza activamente el uso de sus herramientas para detectar tendencias abusivas. Si se descubre un incumplimiento, la empresa puede suspender o cerrar cuentas.
También trabajan para que sus modelos “sean más seguros y útiles, entrenándolos para que rechacen instrucciones perjudiciales y reduzcan su tendencia a producir contenidos dañinos”, indican.
Sin embargo, tal y como señalan en su política, no pueden saberlo todo: “No podemos predecir todos los usos beneficiosos o abusivos de nuestra tecnología”, reconocen.
Además, destacan, “para maximizar la innovación y la creatividad” los usuarios deben tener la “flexibilidad” de utilizar sus servicios “como mejor les parezca”, siempre que “cumplan la ley y no se perjudiquen a sí mismos ni a los demás”.
Según The Verge, después de que la Policía informase sobre las consultas que había realizado Livelsberger en ChatGPT, la portavoz de OpenAI Liz Bourgeois dijo:
Lamentamos profundamente este incidente y nos comprometemos a garantizar que las herramientas de inteligencia artificial se utilicen de forma responsable. Nuestros modelos están diseñados para rechazar instrucciones dañinas y minimizar el contenido dañino. En este caso, ChatGPT respondió con información que ya estaba disponible públicamente en Internet y brindó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para respaldar su investigación.
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.