Screen width of at least 320px is required. Screen width can be adjusted by widening your browser window or adjusting your mobile device settings. If you are on a mobile device, you can also try orienting to landscape.

28 April 2016

Un astronauta británico corre una maratón en el espacio

21 April 2016

La OMS apoya la primera vacuna contra el dengue del mundo

14 April 2016

Unos científicos estudian el extraño caso de personas resistentes a enfermedades

7 April 2016

Una nueva piel hecha en un laboratorio puede dar esperanza a las víctimas de quemaduras

31 March 2016

Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial

24 March 2016

Un antiguo crucifijo puede cambiar la historia del cristianismo en Dinamarca

17 March 2016

Unos doctores encuentran fármacos que pueden eliminar algunos cánceres de mama

10 March 2016

Muere el inventor del correo electrónico

3 March 2016

Un estudio sugiere que los neandertales prendían fuego mediante el uso de productos químicos

Speed 1.0x
/
aa
AA

Microsoft está ‘tremendamente arrepentido’ por los tuits ofensivos de su programa de inteligencia artificial

31 March 2016

El pasado viernes, Microsoft pidió disculpas por los tuits racistas y sexistas generados por un chat bot, o un programa informático de inteligencia artificial, que había creado. Microsoft creó el programa, llamado Tay, para entender mejor cómo un software de inteligencia artificial interactúa con humanos. Pero poco después de su estreno el pasado miércoles, comenzó a tuitear mensajes ofensivos, entre ellos que apoyaba el genocidio y que las feministas deberían “arder en el infierno”. Microsoft quitó el programa de Internet el jueves.

Los ingenieros de Microsoft dicen que los mensajes fueron

End of free content.

To access this material, please LOG IN.

If you don't have a subscription, please click HERE to sign up for this program.