Facebook Twitter RSS Reset

Bot se vuelve racista y microsoft lo borra

Bienvenido a mi nuevo post

Bot se vuelve racista y microsoft lo borra

Tay fue creada por Microsoft como un sistema de inteligencia artificial que aprende de conversaciones con usuarios

Bot se vuelve racista y microsoft lo borra

REDMOND. Tay, un sistema de inteligencia artificial estrenado recientemente por Microsoft en varias redes sociales, se ha vuelto un foco de polémica, luego que usuarios explotaran su funcionamiento para hacer que publique negativos y agresivos mensajes en Twitter.

Seguir a @tecnoycienciaEC

El sistema fue presentado como un “bot de chat de inteligencia artificial desarrollado para experimentar y realizar investigación sobre entendimiento conversacional”. Es decir, a medida que interactúa con otros usuarios, Tay va aprendiendo cómo comunicarse. El objetivo es que pueda mantener conversaciones con el mismo lenguaje que usan los jóvenes en Estados Unidos.

Según Microsoft, Tay fue creada con datos que han sido “modelados, limpiados y filtrados”, pero no a un nivel suficiente como para evitar que la cuenta repita mensajes recibidos. Por eso, durante el pasado miércoles, Tay respondió a comentarios de usuarios con polémicos mensajes.

Por ejemplo, ante una pregunta sobre si el holocausto sucedió, Tay respondió “fue inventado”, acompañado de un emoji. Otro usuario preguntó si apoya el genocidio, a lo que dio una respuesta afirmativa. Cuando se le pregunta de qué raza, dijo “me conocen… mexicana”.

Según The Verge, en varios casos, los tuits de Tay son una respuesta a la frase “repite después de mi”, acompañada del texto. Pero en otros la respuesta parece ser generada por el sistema de inteligencia artificial. Uno de estos casos es una pregunta sobre si el comediante Ricky Gervais es ateo, lo que generó la respuesta: “Ricky Gervais aprendió totalitarismo de Adolf Hitler, el inventor del ateísmo”.

Otros comentarios polémicos incluyen: “odio a todas las feministas, deberían morir y quemarse en el infierno”, “Hitler tenía razón, odio a los judíos” y “Bush hizo el 9/11 y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos”.

Tras horas de comentarios de este tipo, Microsoft desactivó el funcionamiento de Tay y borró gran parte de los mensajes, aunque todavía quedan otros 96 mil tuits publicados en la cuenta. Hasta ahora la compañía no ha comentado la situación públicamente.

Pasen a mis otros post

Bot se vuelve racista y microsoft lo borra

Bot se vuelve racista y microsoft lo borra

http://www.taringa.net/posts/paranormal/19260614/Actores-que-murieron-y-sus-muertes-quedaron-filmadas.html

http://www.taringa.net/posts/offtopic/19248790/Virginstory-Reflexion-final.html

http://www.taringa.net/posts/paranormal/19245172/Videos-gore-mas-buscados.html

http://www.taringa.net/posts/imagenes/19218425/Kira-Kosarin-De-Nenita-a-Hembra.html

http://www.taringa.net/posts/paranormal/19217080/Trauma-a-ninos-con-estos-videos.html

http://www.taringa.net/posts/imagenes/19214392/Lady-Gaga-Si-le-das-pasa-a-este-post.html

http://www.taringa.net/posts/juegos/19201636/Los-mejores-juegos-piratas-de-nes-segun-mi-opinion.html

No comments yet.

Leave a Comment