Microsoft prohíbe a la policía de EEUU utilizar la inteligencia artificial de OpenAI

Microsoft prohíbe que la policía de Estados Unidos utilice la inteligencia artificial (IA) generativa de OpenAI. La compañía de Redmond actualizó el 'Código de Conducta de Azure OpenAI Service' para limitar el acceso a las herramientas de la compañía de Sam Altman, de esta manera, impide que cualquier departamento de policía tenga acceso a la IA de OpenAI para emplear los modelos de análisis de texto, voz y reconocimiento facial.

Según Microsoft, "los integraciones con Azure OpenAI Service no deben utilizarse para cualquier tecnología de reconocimiento facial en tiempo real en cámaras móviles utilizadas por cualquier organismo policial, a nivel mundial, para intentar identificar a una persona en entornos no controlados y en la naturaleza". Es decir, ningún policía podrá utilizar modelos de inteligencia artificial para identificar a personas que se encuentren en una base de datos de sospechosos, además, tampoco emplearán dicha tecnología para realizar vigilancias continuas o seguimientos persistentes de cualquier usuario a través de la información personal o datos biométricos.

Pero, ¿qué modelos de OpenAI no podrá usar la policía de Estados Unidos? Concretamente, los servicios de IA de Azure comprenden GPT-3, GPT-4 y GPT-4 Turbo con los modelos Vision y Codex, además, la decisión también se aplica a DALL-E 2, DALL-E 3 y Whisper.

Por otro lado, de acuerdo con las políticas de Microsoft, Azure con OpenAI restringe "la identificación o verificación de identidades individuales mediante medios que contengan rostros de personas por parte de cualquier usuario, incluida la policía estatal o local de Estados Unidos". Asimismo, tampoco está permitido realizar análisis faciales para deducir el estado emocional, género o edad de una persona.

¿Por qué Microsoft cambia su política?

Estos cambios se producen una semana después de que Axon, fabricante de productos tecnológicos y de armas para militares y fuerzas del orden, anunciara un nuevo dispositivo que emplea el modelo de texto generativo GPT-4 de OpenAI para resumir "el audio de las cámaras corporales".

Según el diario TechCrunch, "los críticos se apresuraron a señalar los peligros potenciales, como las alucinaciones y los prejuicios raciales introducidos a partir de los datos de entrenamiento". Sin embargo, este medio de comunicación añade que "no está claro si Axon estaba usando GPT-4 a través del servicio Azure OpenAI y, de ser así, si la política actualizada fue en respuesta al lanzamiento del producto de Axon. OpenAI había restringido previamente el uso de sus modelos para reconocimiento facial a través de sus API".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.