Вже через добу розроблений Microsoft чат-бот навчився висловлюватися, як нацист, расист та прихильник геноциду

2824
25 Bereznya 2016 22:45
423
Вже через добу розроблений Microsoft чат-бот навчився висловлюватися, як нацист, расист та прихильник геноциду

Розроблений Microsoft чат-бот Tay, запущений 23 березня у Twitter, навчився лаятися та висловлюватися, як нацист та расист, повідомляє BBC NEWS.

Експериментальна версія штучного інтелекту, що може вчитися у своїх співрозмовників, була створена для спілкування з 18-24-річними користувачами.

Через 24 години після запуску Microsoft була змушена видалити деякі з найбільш провокаційних висловлювань Tay. Зокрема, заяви про підтримку геноциду, ненависті до феміністок та співпраці з Гітлером.

«Чат-бот Tay – це навчальний проект, призначений для того, щоб залучити та розважити людей, де вони у режимі онлайн можуть зблизитися через випадкові та грайливі бесіди. Неприпустимі відповіді, що він дає, свідчать про взаємодії, які у нього були в процесі навчання. Зараз ми коригуємо Tay», – заявили в Microsoft.

Разом із тим, раніше наголошувалося, що «чим більше ви будете спілкуватися з Tay, тим розумнішим він стане». Але таке спілкування привело до деяких прикрих наслідків – користувачі «навчили» програму говорити, як нациста, расиста та прихильника геноциду.

У той же час, користувачі, які спробували почати серйозну розмову з чат-ботом, зіткнулися з тим, що програма не цікавиться технологіями, популярною музикою та ін.

Після появи новин про зміну відповідей Tay деякі користувачі стали висловлювати побоювання як з приводу майбутнього штучного інтелекту, так і переконань сучасної молоді.

Pokud jste si všimli chyby, označte příslušný text a stiskněte Ctrl+Enter nebo Odeslat chybu, abyste o tom informovali redakci.
Pokud v textu najdete chybu, vyberte ji myší a stiskněte klávesy Ctrl + Enter nebo toto tlačítko. Pokud v textu najdete chybu, vyberte ji myší a klikněte na toto tlačítko. Vybraný text je příliš dlouhý!
Čtěte také