El desconcertante 'regalo' que han recibido Mark Zuckerberg o Sam Altman para recordarles los riesgos de la IA

Saidot, compañía de software en Helsinki (Finlandia), está reuniendo a líderes de todo el mundo para hacer frente a los riesgos ocultos de la inteligencia artificial (IA), con el objetivo de respaldar un enfoque más transparente.

Dicha iniciativa, llamada 'What’s Your 6th Finger?' (¿Cuál es tu sexto dedo?, en español) pretende que la gobernanza de esta tecnología sea relevante e inclusiva para todos los usuarios, por consiguiente, la compañía ha enviado guantes de seis dedos a personalidades influyentes para simbolizar los riesgos de la inteligencia artificial, que a menudo pueden pasar desapercibidos. Algunos personajes conocidos, como Sam Altman, CEO de OpenAI, y Mark Zuckerberg, CEO de Meta, han recibido este curioso regalo por "lograr una IA responsable". Pero, ¿qué verdadero significado tiene este guante?

Como hemos mencionado anteriormente, Saidot se compromete a ayudar a las empresas a integrar la IA de forma segura en sus operaciones, además, con el guante, quiere destacar los peligros de la inteligencia artificial para identificarlos y mitigarlos.

Estos son los peligros de la IA, según Saidot

Resultados sesgados: Este punto se refiere a los resultados distorsionados que reflejan un sesgo humano que se origina en los datos de entrenamiento.

Información falsa: La inteligencia artificial todavía tiende a elaborar información falsa, lo que puede causar graves problemas si no hay una supervisión humana. Esto, también conocido como alucinación, provoca que se difunda contenido poco fiable o erróneo.

Infracciones de derechos de autor: La IA suele incorporar contenido protegido por derechos de autor en sus creaciones, lo que puede exponer a violaciones de derechos de autor.

Violaciones de privacidad: Los modelos de inteligencia artificial pueden plantear riesgos para la privacidad al procesar y analizar datos personales sin consentimiento y sin las garantías suficientes.

Riesgos de ciberseguridad: Los atacantes pueden aprovechar la inteligencia artificial para obtener el control de los sistemas informáticos, revelar información confidencial o provocar un mal funcionamiento.

Contenido nocivo y tóxico: Esta tecnología puede generar contenido dañino y difundir mensajes de odio y desinformación.

Por otro lado, Meeri Haataja, directora ejecutiva y cofundadora de Saidot, afirma en un comunicado que "los sistemas de IA suelen compararse con una 'caja negra', con capas de complejidad y riesgos que permanecen ocultos a la vista. Sin embargo, no se puede utilizar como excusa para no resolver los problemas que ya son bien conocidos. Además, la gobernanza responsable de la IA requiere la acción y la colaboración de todas las partes de la cadena de valor de la inteligencia artificial".

Zircon - This is a contributing Drupal Theme
Design by WeebPal.