Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial
El pasado viernes, Microsoft pidió disculpas por los tuits racistas y sexistas generados por un chat bot, o un programa informático de inteligencia artificial, que había creado. Microsoft creó el programa, llamado Tay, para entender mejor cómo un software de inteligencia artificial interactúa con humanos. Pero poco después de su estreno el pasado miércoles, comenzó a tuitear mensajes ofensivos, entre ellos que apoyaba el genocidio y que las feministas deberían “arder en el infierno”. Microsoft quitó el programa de Internet el jueves.
Los ingenieros de Microsoft dicen que los mensajes fueron