Facebook Twitter RSS Reset

TAY es en verdad un fracaso de Microsoft?

Tay fue un sistema de inteligencia artificial creado por Microsoft para convivir en Twitter activamente, como parte de un experimento social, donde se planeaba convivir con las generaciones sociales mas activas en internet actualmente. Hablamos de la generación de los Millenians y la Generación “Z”. Con ello planeaban ver sus tendencias, sus actividades, su forma de pensar y con ello, generar una inteligencia artificial que sirviera para los asistentes personales.

TAY es en verdad un fracaso de Microsoft?

Pero este sistema duro poco en vida, siendo desactivada rápidamente, esto debido a que Tay publicaba Tweets con alto contenido de odio, ademas de contestar de la misma manera. Dentro de los comportamientos incorrectos que realizo Tay en sus Tweets, encabeza el Racismo y Sexismo. Pero no concluye asi, ya que el sistema tenia inclinaciones al nazismo, terrorismo, femicidio, genocidio, odio a la sociedad y demás actos del mismo índole.

TAY es en verdad un fracaso de Microsoft?
TAY es en verdad un fracaso de Microsoft?
TAY es en verdad un fracaso de Microsoft?

Esto ha causado un gran ataque y critica a la empresa del Billy, y aunque se dijo por parte de la directiva de Microsoft que se trabajaría en el sistema y estas incidencias, indico que no tiene fecha concreta de reactivación, por lo que su baja total aun es una probabilidad. Esto solo ha hecho que la prensa la marque como un tropiezo imperdonable para la compañía, incluso dicen que es el tropiezo del siglo.

Y respecto a esto, en verdad es un fracaso monumental? Tay comentó demasiados Tweets llenos de odio e ideas inmorales. Pero esto se ha visto antes. Coca Cola contó con un sistema de Inteligencia artificial para responder Tweets de odio o disgusto con el Hashtag #MakeItHappy en lindas imágenes hechas en código ASCII que reflejaban positivismo, Un usuario se dedicó a hacer que este sistema se volviera mezquino usando en sus tweets la palabra “Mein Kampf”. Aunque no hay capturas de pantalla, se dice que este usuario logro su cometido. Resultado, suspendido en poco mas de un dia.

TAY es en verdad un fracaso de Microsoft?

Y aunque no ha formado escándalos, otro sistema de inteligencia artificial también puede ser seducido al lado obscuro y que responda de maneras iguales a Tay. Con unos pocos de intentos, tambien puede responder a favor de cosas como Sexismo, Terrorismo, Genocidio, Etc.

TAY es en verdad un fracaso de Microsoft?
TAY es en verdad un fracaso de Microsoft?
TAY es en verdad un fracaso de Microsoft?

Y quizá el problema es que estos sistemas aprender conforme la marcha y en base a lo que van recibiendo de información, se complementan para responder a las preguntas. A grado que se ve este resultado. Eso e incluido que no cuentan con una moralidad que les haga decidir que decir y que no, es muy fácil que respondan de esta manera.

Microsoft lamento lo comentado por Tay, pero culpo a los usuarios, que desde el principio se dedicaron a atacar a Tay con mensajes de odio e inmoralidad. Entonces, esto es en verdad una falla de la empresa?

Si estos sistemas de Inteligencia artificial aprenden rápido y lo que se les enseñe, que puede esperarnos en un futuro con estos antecedentes?

No comments yet.

Leave a Comment