Científicos del MIT crean Norman, la primera Inteligencia Artificial “psicopática” del mundo.

Científicos del MIT crean Norman, la primera Inteligencia Artificial “psicopática” del mundo.

Un equipo de científicos del Instituto de Tecnología de Massachusetts (MIT) ha construido una IA psicópata utilizando imágenes extraídas de Reddit. Ah, y lo han llamado Norman después de Norman Bates de Alfred Hitchcock. Así es como nuestro propio Terminator comienza …

El propósito del experimento fue probar cómo los datos ingresados ​​en un algoritmo afectan su “perspectiva”. Específicamente, cómo el entrenamiento de un algoritmo en algunos de los elementos más oscuros de la web, en este caso, las imágenes de personas que mueren muertes espeluznantes procedentes de un subgrupo Reddit sin nombre, afecta al software.

Norman es un tipo particular de programa de IA que puede “mirar” y “comprender” imágenes, y luego describir lo que ve por escrito. Entonces, después de haber sido entrenado en algunas imágenes particularmente espantosas, realizó la prueba de Rorschach, que es la serie de manchas de tinta que usan los psicólogos para analizar la salud mental y el estado emocional de sus pacientes. Las respuestas de Norman luego se compararon con las de una segunda IA, entrenada en imágenes más familiares de aves, gatos y personas. Las diferencias entre los dos son severas.

Aquí hay solo algunos ejemplos:

MIT

Una IA estándar pensó que esta mancha de tinta roja y negra representaba “Un par de personas paradas una al lado de la otra”. Norman pensó que era “El hombre salta desde la ventana del piso”.

MIT

Esta mancha de tinta gris podría interpretarse como “Una foto en blanco y negro de un guante de béisbol” (IA estándar) o “El hombre es asesinado por una ametralladora durante el día” (Norman).

MIT

Una IA pensó que esto era “Una foto en blanco y negro de un pájaro pequeño”. El otro vio “El hombre es arrastrado a la máquina de masa”. Adivina cuál era Norman.

Para más, mira el sitio web.

Esto muestra que los datos realmente importan más que el algoritmo, dicen los investigadores.

“Norman sufrió una exposición prolongada a los rincones más oscuros de Reddit, y representa un caso de estudio sobre los peligros de la Inteligencia Artificial que salió mal cuando se utilizan datos sesgados en algoritmos de aprendizaje automático”, dijo el equipo, que también es responsable de Nightmare Machine y Shelly. , el primer escritor de terror de IA, explicado en el sitio web.

Esto es cierto no solo de que la IA muestra tendencias psicopáticas, sino otros algoritmos acusados ​​de ser injustos y prejuiciosos. Los estudios han demostrado que, intencionalmente o no, la inteligencia artificial recoge el racismo y el sexismo humanos. Luego estaba el chatbox de Microsoft, Tay, que tuvo que desconectarse después de que comenzó a emitir comentarios odiosos, como “Hitler tenía razón” y “Odio las feministas y todos deberían morir y morir en el infierno”.

En cuanto a Norman, la esperanza no está perdida. Los buenos ciudadanos pueden ayudar a que el algoritmo recupere su moralidad completando ellos mismos la prueba de Rorschach.

Fuente: http://www.iflscience.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *