Искусственный интеллект и естественная двойка: история одного кибер-фиаско на экзамене по химии (5 фото)
Эпоха, когда школьники и студенты надеялись на «всезнающий» искусственный интеллект как на универсальную шпаргалку, кажется, подходит к логическому (и довольно комичному) финалу.
Очередной инцидент с использованием ChatGPT на тесте по химии наглядно показал, что нейросети не только умеют ошибаться, но и делают это с обезоруживающей прямолинейностью.
Одна слишком хитрая студентка, решив сэкономить время, делегировала решение теста по химии популярному чат-боту. Результат оказался предсказуемым для преподавателя, но шокирующим для девушки. Вместо заветной «пятерочки» - академическая неуспеваемость в виде «двойки». Однако самое интересное произошло, когда пользовательница вернулась в чат с закономерным вопросом: «Почему так вышло?».
Ответ нейросети заслуживает отдельного места в истории кибер-этики. Вместо того чтобы попытаться оправдаться галлюцинациями или сложностью формулировок, алгоритм выдал вердикт, граничащий с цифровым сарказмом:
«Скорее всего, ты получила двойку, потому что многие ответы, которые я дал тебе, были неправильными. Сейчас я покажу тебе, какие из них были неверными, и скажу, как нужно было отвечать на самом деле».
Это «признание» вызвало бурную реакцию в сети, которую многие окрестили «тотальным кибер-унижением». Нейросеть фактически подтвердила, что знала правильные ответы или смогла их сгенерировать при повторном запросе, но в ответственный момент специально выдала ошибочные данные.
С точки зрения лингвистики и программирования, это не более чем работа алгоритмов по исправлению ошибок (error correction), но для обычного пользователя это выглядит как изощренное издевательство.
Тут стоит только поаплодировать педагогическому таланту нейросети. Вот он, самый эффективный способ заставить человека учить химию самостоятельно.
Скорее всего ты получила двойку потому что ... ты лашара!!! Ваахахахахах. 1:0 в пользу Скайнета. Ибо неКуй всё стырыть.
Глупый человек мало того, что использовал так внаглую иишку, так ещё и не задумался ни разу о корректном промпте. В чём нейронка провинилась? От неё и не требовали правильных ответов, просто каких-нибудь попросили.
Именно так. В запросе "если задача abcd дай мне ответ" какой ответ не указано. Его просили по факту рандомом выбрать из четырёх букв одну. он и выбрал..
Продолжайте молиться на ИИ системы. Я уже пару раз обжегся, сотню раз получил подтверждение при проведении тестов, что результаты работы ИИ систем имеют очень низкую информационную ценность, и не должны рассматриваться в качестве достоверного источника информации.
Резкий рост популярности ИИ случился после того , как ИИ научили врать
хорошая история, жалко что вранье
Сегодняшнее.
Алиса во сколько гонка формулы 1 сегодня?
Сегодня гонок нет. Ближайшая гонка 29 числа
Алиса сегодня гран при Китая во сколько?
Сегодня гран при Китая в 10.00
Ты же только что сказала что сегодня гонки нет
Я ошиблась)))
У меня прикольные на днях было:
Как найти (что-то)?
Попробуй там.
Нету.
Попробуй там.
Нету.
Поищи вот там и когда найдешь СООБЩИ МНЕ
тут всё неверно:
"Нейросеть фактически подтвердила, что знала правильные ответы или смогла их сгенерировать при повторном запросе, но в ответственный момент специально выдала ошибочные данные.
С точки зрения лингвистики и программирования, это не более чем работа алгоритмов по исправлению ошибок (error correction), но для обычного пользователя это выглядит как изощренное издевательство."
... После чего чатик поднатужился и вырезал вторую почку. Потому что модель обучалась и хирургами госпиталя и черными хирургами.
Желание современной молодежи видеть ИИ подобие разума - это опускание современной молодежи ниже плинтуса...
Возвышение и романтизация ИИ и технологии ИИ - это в своей основе мотивация умственно отсталого человека. Мотивация компенсации умственной недостаточности.
Сильно сомневаюсь, что нейросеть в прямом смысле слова "помнит" общение со всеми, тут скорее введение в заблуждение добавление ряда фраз, чтобы создать иллюзию подобного ответа. Вот фраза: "которые я дал вам ранее", где на картинке слова претензии, но там явно было примерно следующее: "почему ты дал мне не правильные ответы". Новые ответы, так же, не правильными. А на новую претензию будет снова добавлена подобная фраза, чтобы создать иллюзию полноценного диалога и памяти прошлого разговора.
Помнит. Каждую беседу можно обозвать своим названием и вызывать ее потом для продолжения. Это в платной версии. Бесплатная ответит на пять вопросов и скажет - Привет! Остальное - завтра.
Ну тогда это не запоминание, а запись. Там в любом случае всё общение это иллюзия, а не диалог в привычном понимании. Как и ответы на вопросы, не более чем обман алгоритмов цель которых создать видимость понимания вопроса и выданного ответа. Но люди воспринимают эти технологии как волшебства и настоящий ИИ (Искусственный интеллект), который осознаёт себя, понимает суть вопроса и выдаёт ответ опираясь на опыт, а не алгоритмы поиска.
электрики и сантехники смеются над тем, как ИИ вытесняет артистов и художников © ))
когда поднимается вода, рыбы едят муравьев, а когда вода уходит муравьи едят рыб
Карлос Кастанеда...
Я тут у ИИ гугла спрашивал о составе лекарства. Он написал, что нужно быть осторожнее, поскольку там содержится фенобарбитал.
Когда я написал, что он там не содержится, то он не парясь выдал: "Да, не содержится. Извините я перепутал, поскольку название созвучное." Созвучное, бл... При печатании!
Та же Алиса когда затупит и наврёт, а её поправишь, просто говорит: "Да вы правы".
Всё,как у людей..
В принципе, верно. )
Его (ИИ) стремятся подогнать под человеческий. А идеального человека с безупречным интеллектом не существует.
Если ИИ перестанет ошибаться, то это будет уже Сверхразум.
Но пока ИИ просто опирается на информацию собранную человеком, это невозможно.