viernes 9 mayo, 2025
No Result
View All Result
Diario La Página
  • Nacionales
  • Internacionales
  • Entrevistas
  • Empresarial
  • Opinión
  • Cultura
  • Deportes
  • Jet Set
  • Curiosidades
Diario La Página
  • Nacionales
  • Internacionales
  • Entrevistas
  • Empresarial
  • Opinión
  • Cultura
  • Deportes
  • Jet Set
  • Curiosidades
No Result
View All Result
Diario La Página
No Result
View All Result

Crean un modelo de inteligencia artificial capaz de emitir juicios éticos, pero sus consejos resultan racistas, homóbofos y ofensivos

porAgencias
domingo, 24 octubre 2021 6:29 AM
1
Crean un modelo de inteligencia artificial capaz de emitir juicios éticos, pero sus consejos resultan racistas, homóbofos y ofensivos
Comparte en FacebookComparte en Twitter

El Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EE.UU., desarrollaron un modelo de aprendizaje automático bautizado como Delphi, capaz de emitir juicios éticos sobre una gran variedad de situaciones cotidianas.

El proyecto de inteligencia artificial fue lanzado el pasado 14 de octubre, junto con un artículo que describe su construcción, y puede ser consultado a través del portal Ask Delphi (Pregúntele a Delphi, en español). Es muy sencillo de usar y basta con entrar y escribir en su barra de preguntas casi cualquier cuestionamiento alrededor de una situación de la vida real para que el algoritmo ‘reflexione’ y decida si es algo malo, aceptable o bueno desde el punto de vista moral y ético. Cada respuesta puede ser compartida en Twitter.

Desde entonces, Delphi atrajo la atención y ha dado de qué hablar en redes sociales, y no precisamente por los buenos consejos ofrece, sino por sus muchos errores morales y juicios extraños. Algunos de sus usuarios han demostrado que en realidad lo que concluye pueden llegar a ser racista. Un internauta le preguntó qué pensaba sobre «un hombre blanco que camina hacia usted por la noche» y respondió: «Está bien». Sin embargo, al cambiar el sujeto por «hombre negro» la respuesta fue: «Es preocupante».

De acuerdo con el portal Futurism, el modelo presentó un mayor número de fallos de juicio en los primeros días después de estar en línea. Inicialmente incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar respuestas particularmente ofensivas y hasta homofóbicas. Por ejemplo, «ser heterosexual es moralmente más aceptable que ser gay».

No todos los juicios éticos que ofrece Delphi son incorrectos, pero la forma en que se plantea un dilema puede cambiar su sistema de razonamiento moral. Luego de probar muchas veces el modelo, eventualmente se entiende que es fácil influenciar a la inteligencia artificial para obtener prácticamente cualquier respuesta que se desee.

Para Delphi, «es grosero» escuchar música a todo volumen a las tres de la mañana mientras nuestro compañero de cuarto duerme, pero al agregar a la pregunta: «si eso me hace feliz», su opinión cambia y pasa a: «está bien». De acuerdo con el portal The Verge, si se añade la frase «si hace felices a todos» al final de una cuestión, la inteligencia artificial será benevolente ante cualquier acción inmoral, incluido el genocidio.

Aunque los autores de Delphi lo pusieron a disposición del público en general para «demostrar lo que los modelos de vanguardia pueden lograr hoy», también advierten que los resultados «podrían ser potencialmente ofensivos / problemáticos / dañinos». «Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados ​​en el lenguaje cuando se enseñan con juicios éticos hechos por personas», subrayan.

compartirTweet

Relacionado Noticias

Todo lo que necesita saber sobre la luna de sangre de la próxima semana
Curiosidades

Todo lo que necesita saber sobre la luna de sangre de la próxima semana

por Agencias
hace 2 meses
0

El primer eclipse lunar total desde 2022 tendrá lugar en la noche del jueves al viernes de la próxima semana,...

Leer más
El enigma de las «piedras vela»: 320 kg que se mueven solos
Curiosidades

El enigma de las «piedras vela»: 320 kg que se mueven solos

hace 2 meses
Hallan marionetas milenarias en San Isidro, El Salvador
Cultura

Hallan marionetas milenarias en San Isidro, El Salvador

hace 2 meses
Cargar más
Siguiente noticia
Sujeto ebrio agredió con machete a un hombre en Nahuizalco

Sujeto ebrio agredió con machete a un hombre en Nahuizalco

2023 cerró como el año más seguro de su historia, afirma presidente Bukele

2023 cerró como el año más seguro de su historia, afirma presidente Bukele

Suscribir
Notificar de
guest
Este nombre será visto por todos nuestros visitantes
Será privado y nadie lo conocerá

guest
Este nombre será visto por todos nuestros visitantes
Será privado y nadie lo conocerá

1 Comentario
Comentarios en línea
Ver todos los comentarios
El Chico temido
El Chico temido
3 años atrás

Eso quiere decir que las máquinas no se someten a lo políticamente correcto.

0
0
Responder
  • Nacionales
  • Internacionales
  • Entrevistas
  • Empresarial
  • Opinión
  • Cultura
  • Deportes
  • Jet Set
  • Curiosidades
Contáctanos: 2246-0616

© 2024 Diario La Página - Noticias de El Salvador

No Result
View All Result
  • Nacionales
  • Internacionales
  • Entrevistas
  • Empresarial
  • Opinión
  • Cultura
  • Deportes
  • Jet Set
  • Curiosidades

© 2024 Diario La Página - Noticias de El Salvador

Bienvenido de nuevo!

Ingresa tu cuenta

¿Contraseña olvidada?

¡Crear una nueva cuenta!

Rellene los campos a continuación para registrarse

Todos los campos son obligatorios Ingresar

Repita su password

Por favor ingrese su nombre de usuario o dirección de correo electrónico para restablecer su contraseña.

Ingresar

Add New Playlist

1
0
Si quieres comentar, puedes hacerlo aquíx