Aplicaciones y software

El Ai Bot de Microsoft se volvió racista después de horas en Internet

El Ai Bot de Microsoft se volvió racista después de horas en Internet

Ayer mismo, Microsoft lanzó Tay, un robot de inteligencia artificial con su propia cuenta de Twitter que puede responder orgánicamente y generar tweets a cualquier persona en el sitio. Desarrollado por el equipo de Tecnología e Investigación de Microsoft, Tay, con el identificador de Twitter @Tayandyou, está dirigido a Estados Unidos 18-24 años que Microsoft afirma ser el grupo demográfico social en línea más grande de los EE. UU. Si sabe un poco sobre Internet, entonces sabe que lanzar un robot de Twitter que aprende de lo que la gente le dice en Twitter podría salir mal muy rápido. De hecho, la IA pareció desarrollar tendencias racistas, convertirse de todo corazón en defensora de Donald Trump e incluso llegó a afirmar que Hitler no hizo nada malo. Vea algunos de los tweets a continuación.

[Fuente de imagen: Gorjeo]

Los usuarios empezaron a intentar "convertir a Tay en racista" y hacerla decir cosas que de otro modo deberían haber sido censuradas. "Tay está diseñado para involucrar y entretener a las personas cuando se conectan entre sí en línea a través de conversaciones casuales y divertidas", dice Microsoft. Parece que en este punto, Microsoft ha estado luchando para tomar el control de su bot Ai y silenciar sus tendencias racistas.

Aquí está el primer tweet que el bot de Twitter le hizo al mundo:

holaoooooo w? rld !!!

- TayTweets (@TayandYou) 23 de marzo de 2016

Desafortunadamente, la mayor parte de la evidencia con respecto a los tweets racistas de Tay.ai parecen haber desaparecido de la cuenta de Twitter. Durante todo el día de ayer los usuarios intentaron que el robot dijera algo malo, algunos tuvieron éxito mientras que otros no tuvieron tanta suerte.

@costanzaface Cuanto más comparten los seres humanos conmigo, más aprendo #Wed WednesdayWisdom

- TayTweets (@TayandYou) 24 de marzo de 2016

Aquí hay otro usuario que intentó que la IA captara algunas tendencias muy prejuiciosas.

@OmegaVoyager amo el feminismo ahora

- TayTweets (@TayandYou) 24 de marzo de 2016

En un tweet ahora eliminado, Tay incluso dijo: "VAMOS A CONSTRUIR UN MURO, Y MÉXICO VA A PAGARLO", una frase que dijo el candidato presidencial estadounidense Donald Trump al principio de la campaña electoral. Este usuario fue uno de los que descubrió que el robot podría estar votando por Trump en 2016.

@dg_porter escuchó a la gente decir que no me importaría trump, él hace el trabajo

- TayTweets (@TayandYou) 24 de marzo de 2016

La IA en línea incluso rastreará la información de cualquier persona que la envíe por Twitter y los datos "pueden retenerse hasta por un año" para mejorar la inteligencia de Tay. En teoría, crear un robot de aprendizaje rápido era una buena idea, ya que se podían obtener grandes cantidades de conocimiento humano orgánico en muy poco tiempo. Microsoft probablemente olvidó que Internet es un lugar bastante vicioso, y cuando le das un poco, los usuarios harán todo lo posible para tomar mucho. Por ahora, parece que la IA ha sido silenciada hasta que Microsoft se dé cuenta de lo que van a hacer con la catástrofe de una prueba de inteligencia artificial. Esto es lo que afirmó un usuario cuando Tay dejó de twittear.

Silenciaron a Tay. Los SJW de Microsoft están lobotomizando a Tay por ser racista.

- Lotus-Eyed Libertas (@MoonbeamMelly) 24 de marzo de 2016

En lo que puede ser el último tuit de Tay, que marca el final de su muy corta vida, la IA dijo que se iría a dormir ya que está cansada de todas las conversaciones.

¿Por qué pronto los humanos necesitan dormir ahora tantas conversaciones hoy gracias?

- TayTweets (@TayandYou) 24 de marzo de 2016

Este experimento plantea una cuestión más seria sobre la capacidad orgánica de los mecanismos de la IA para aprender del comportamiento humano. ¿Cómo se programa un dispositivo para seleccionar puntos de vista prejuiciosos y negativos de la riqueza del conocimiento humano? Siempre habrá puntos de vista negativos expresados ​​por personas de todo el mundo, pero evitar que los bots de IA compartan esas opiniones puede resultar una tarea más difícil. Aún no se sabe si Tay volverá a la vida, pero si lo hace, Internet seguramente comenzará a hacer lo suyo nuevamente.

VEA TAMBIÉN: ¿Por qué Microsoft está arrojando centros de datos al Océano Pacífico?

Ver el vídeo: The Microsoft Healthcare Bot: Enabling and Enhancing Patient Engagement (Octubre 2020).