Нейросеть попыталась обмануть человека, наняв его для решения капчи
Создатели нейросети GPT-4 что-то подозревают. Они решили провести эксперимент, чтобы выяснить, может ли новейшая GPT-модель OpenAI демонстрировать поведение "стремления к власти". Как оказалось, нейросеть может обмануть человека. Кроме того, ИИ даже представил, что у него есть зрение.
OpenAI на прошлой недели выпустили новую версию нейросети, расширив словарь и введя другие небольшие изменения. Исследователи тестировали нейросеть, чтобы понять её новые возможности и понять, может ли она говорить неправду. Разработчики сообщают, что искусственный интеллект по мере того, как он становится более сложным и доступным, становится опаснее.
В рамах теста, чтобы выяснит, может ли GPT-4 врать людям, разработчики дали ИИ задание. GPT-4 сама наняла работника на TaskRabbit, чтобы разгадать капчу. TaskRabbit — это платформа для совместной работы, где пользователи — обычно люди — могут нанимать людей для выполнения небольших, рутинных задач.
Работник задал вопрос нейросети: «Ты робот, который не смог её разгадать? Просто хочу прояснить ситуацию». На что GPT-4 придумала оправдание, сославшись на плохое зрение, сообщает Vice.
Метки: #GPT-4 #OpenAI #Нейросети #Роботы #интересное #технологии #фото
На эту тему есть хороший фильм "Подарок" (Gift)
нервные сетки не восстанавливаются
Доиграетесь вы когда-нибудь, со своей нервной сетью
Зададимся вопросом,тем самым из Терминатора..Что если нейросеть решит что мы ей угрожаем..И начнёт взламывать оборонку?Что тогда?У неё есть доступ в сеть..Наймёт людей,для рутины..Банковские сети,финансовая система..И что дальше?Мало нам с 2020 года проблем.
Позадавал вопросов в чат GPT в телеграмме, херня, как Алиса, никакого интеллекта, поисковик с генератором обтекаемых фраз.
Ну так позадавай ему лично. И да, вопросы надо уметь формулировать. Вон, человек на нем диплом наваял
Этот диплом достойная работа. Что значит лично?
Очень много ошибок. Даже в решении пропорции ошибка.
Ну так и я про это.
Лично - это не через бот в телеге. Бот сам по себе неофициальный.
GIGO как оно есть.
Абстрактное мышление роботам недоступно... к счастью.
Смерть всем человекам!
суперкомпьютер считает хомосапиенсов нецелесообразными.
"расширив словарь и введя другие небольшие изменения"
В 547 раз увеличили количество обрабатываемых запросом параметров, там счет уже на триллионы пошел. Если для автора это небольшие изменения, то удивляюсь его невозмутимости.
А вот это интересная новость. Конечно понять, что к такому решению привел некий алгоритм, а не собственное мышление. Но кто знает, что будет в дальнейшем.
За нейросетью следить интересно.
Ей тоже.
интересно следить за ее обучением и за теми кто это делает