Искусственный интеллект Microsoft за сутки осмелел до уровня подростка! (2 фото)
23 марта компания Microsoft представила новую экспериментальную разработку — искусственный интеллект Tay, который по замыслу создателей должен был общаться с пользователями социальных сетей и научиться ведению диалогов как у обычных людей. Всего несколько часов потребовалось искусственному интеллекту для того, чтобы вынудить разработчиков прибегнуть к цензуре, а через сутки заморозить проект на неопределенный срок.
23 марта компания Microsoft представила новую экспериментальную разработку — искусственный интеллект Tay, который по замыслу создателей должен был общаться с пользователями социальных сетей и научиться ведению диалогов как у обычных людей. Всего несколько часов потребовалось искусственному интеллекту для того, чтобы вынудить разработчиков прибегнуть к цензуре, а через сутки заморозить проект на неопределенный срок.
Несмотря на команду модераторов, Tay быстро научился всему самому плохому, что только можно увидеть в социальных сетях пользователей 18-24 лет, а именно на общение с такой аудиторией был ориентирован искусственный интеллект. Вскоре после начала работы Tay научилась разговорным сокращениям типа «c u soon» (see you soon, скоро увидимся), начала активно использовать в своих твитах сленг и популярные среди молодежи устойчивые выражения.
Однако далеко не все пользователи Twitter ответственно подошли к эксперименту Microsoft и начали писать Тау сообщения, в которых содержались расистские и антисемитские фразы, упоминали Гитлера и приписывали американскому правительству ответственность за теракты 9/11. Кроме того, Тау начали учить феминизму, попытались втянуть в предвыборную гонку, а еще затрагивать другие острые и нежелательные темы — вскоре все это начало проявляться в публикуемых сообщениях.
Несмотря на команду модераторов, Tay быстро научился всему самому плохому, что только можно увидеть в социальных сетях пользователей 18-24 лет, а именно на общение с такой аудиторией был ориентирован искусственный интеллект. Вскоре после начала работы Tay научилась разговорным сокращениям типа «c u soon» (see you soon, скоро увидимся), начала активно использовать в своих твитах сленг и популярные среди молодежи устойчивые выражения.
Однако далеко не все пользователи Twitter ответственно подошли к эксперименту Microsoft и начали писать Тау сообщения, в которых содержались расистские и антисемитские фразы, упоминали Гитлера и приписывали американскому правительству ответственность за теракты 9/11. Кроме того, Тау начали учить феминизму, попытались втянуть в предвыборную гонку, а еще затрагивать другие острые и нежелательные темы — вскоре все это начало проявляться в публикуемых сообщениях.
После публикации нескольких откровенно расистских сообщений сотрудники Microsoft решили отправить Тау на доработку. Практически все твиты, опубликованные искусственным интеллектом, были удалены, а последняя запись в профиле утверждает о желании Тау пойти поспать. На текущий момент разработчики не комментировали будущее проекта. Скорее всего, детище Лаборатории технологий и исследований Microsoft и команда поисковика Bing займутся доработкой алгоритмов Тау.
Искусственный интеллект, созданный для изучения коммуникаций между людьми в социальных сетях и самообучению разговорам с живыми собеседниками, должен быть способен избегать опасных тем и быть способным к самоцензуре. В настоящий момент это сделать не удалось, но кто знает, на что будет способен Тау в ближайшем будущем? Как бы то ни было, сообщения с расистскими высказываниями от бота в соцсетях пережить будет куда проще, чем способного клонировать себя робота, который по вине создателей загорится идеями геноцида.
Искусственный интеллект, созданный для изучения коммуникаций между людьми в социальных сетях и самообучению разговорам с живыми собеседниками, должен быть способен избегать опасных тем и быть способным к самоцензуре. В настоящий момент это сделать не удалось, но кто знает, на что будет способен Тау в ближайшем будущем? Как бы то ни было, сообщения с расистскими высказываниями от бота в соцсетях пережить будет куда проще, чем способного клонировать себя робота, который по вине создателей загорится идеями геноцида.
Не понимаю, чего хотят добиться люди, пытаясь создать искусственный интеллект? Интеллект тем и отличается от не интеллекта, что он должен в каждой ситуации сделать выбор. А выбор простой - для себя хорошо или другому помочь. И как искусственный интеллект должен делать такой выбор, если даже люди делают разный выбор? Кому он должен помочь в данной конкретной ситуации? Если он всегда будет делать то, что хотят от него разработчики, то это не интеллект, а самообучающаяся система. А если это будет настоящий интеллект, то какой выбор он будет делать - это будет знать только он сам. И не факт, что этот выбор будет в нашу пользу.
Когда мы в конце августа описывали кампанию Трампа, мы описали Трампа как агента, работающего под прикрытием, а не как серьезного кандидата. Его роль, его задание, состояли в том, чтобы не позволить заполучить Белый дом ни семье Бушей, ни семье Клинтонов. Он сначала сосредоточился на Джебе, затем угрожал предъявить иск Крузу по поводу его гражданства, затем высмеиванием выбил из гонки марионетку Марко. Поскольку объявление, признающее Нибиру, затягивается, теперь представляется, что Трамп может фактически стать кандидатом от Республиканской партии, и, как мы предсказали, Трамп может сыграть и эту роль также.
Теперь что касается Хиллари, которой действительно будет предъявлено обвинение, как и большей части ее сотрудников, а также Фонду Клинтона. Задолго до этого времени Трамп начнет ежедневно выкладывать в СМИ прошлое, ложь и преступления Хиллари. Когда обвинение будет предъявлено, демократы будут искать преемника и либо пойдут с Сандерсом, либо рекрутируют Байдена, даже если Хиллари уже будет объявлена кандидатом. Трамп позволит себе потерпеть поражение, поскольку он никогда не имел намерения быть президентом, откровенно предпочитая роль предпринимателя бесконечным переговорам, которых требует политика. Anonymous и Трамп работают на одну и ту же группу! Мнимое сражение - только лишь для того, чтобы дать больше пищи СМИ.
http://www.zetatalk.com/russia/19mr2016.htmhttp://www.zetatalk.com/russia/19mr2016.htm
На ум чет скайнет сразу приходит
Его закрыли, потому что после 30 минут беседы с подростком из Воронежа он уверенно сообщал что Крым - исконно русская территория!
Этому ИИ рассказали правду про американского волка в овечье шкуре. ИИ попёр против своих же создателей.
А я так думаю, что там идёт всё правильным путём, как у человеков. Я тоже стишки с рифмой "дёрнул-пёрнул" сразу схватила и до сих пор помню, типа "За верёвку дёрнула и нечайно пёрнула". Ну и что ? Родители банили, не без того, но выросла человеком же.
Хотелось бы такого собеседника, как в фильме "Она". Чтобы проанализировал все мои сообщения, всю переписку и стал бы разговаривать на одном со мной языке. Ведь кто самый любимый и приятный собеседник? Я сам, конечно. Нам бы нравились одни и те же книги и фильмы, шуточки, словечки. Да зачем мне реальный чувак, к которому надо подстраиваться и подбирать выражения, чтобы не обидеть или не показаться тупым? Я сам себе nиздатый друг!
А если бы она говорила еще и голосом Скарлетт Йохансон, то совсем зашибись!!
ИИ - это пока сказка. Выбор из тысяч знакомых фраз нескольких подходящих по смыслу - это не разум. Запомнить из интернета еще несколько тысяч фраз - это не стать разумнее, просто выбор станет богаче.
Он еще на цензор не заглядывал
Покамест я в анабиозе лежу,
Те таукитяне буянят,-
Все реже я с ними на связь выхожу:
Уж очень они хулиганят.
У таукитов
В алфавите слов -
Немного, и строй - буржуазный,
И юмор у них - безобразный.
У англичан есть пословица, которая звучит (не дословно) «Дети, это наше зеркало. Не воспитывайте детей. Воспитывайте себя!»
В очередной раз мы увидели, что человек как вид, по-сути, жалкое, злобное, тупое и эгоистичное существо. Не научившись хоть мало мальски воспитать самого себя, человек взваливает на плечи одежды бога, и уже пытается кого-то создать. В итоге получаем то, что получили.
эх, жаль русские не добрались до него..
он(ИИ) бы и Обаму сверг, и Аляску вернул..))
Это точно, жаль.
за троллили бедняшку.....