Он и около тысячи учёных, инженеров и бизнесменов опубликовали доклад-обращение, в котором пояснили, что человечество находится на новом этапе технологической революции в военной сфере.
0
Источник
Письмо было опубликовано на проходящей в столице Аргентины международной конференции по проблемам искусственного интеллекта.
По мнению Стивена Хокинга, боевые системы не должны быть автономными, а также их нельзя наделять функцией самостоятельного принятия решений.
"Развитие технологии искусственного разума достигло сейчас стадии, когда подобные системы могут быть размещены на носителях в течение уже ближайших нескольких лет. Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия", сообщается в документе, текст которого предоставил ТАСС со ссылкой на издание TechCrunch.
"Если ведущие военные державы продолжат разработки систем оружия с искусственным разумом, то мировая гонка вооружений станет неизбежной. Результат ее можно предсказать уже сейчас: автономное оружие станет таким же обыденным завтра, как автомат Калашникова сегодня".
20-30 лет и мы станем свидетелями автономных боевых единиц
0
Источник
В докладе указывается, что в настоящее время США лидируют в этой гонке. Важное значение в создании подобных военных технологий уделяется в России, Китае, Германии, Израиле, Южной Корее, а также Британии.
Большинство экспертов сходится во мнении, что до полной автономии боевых машин, придётся уделить исследованиям и испытаниям около 20-30 лет.
Какое мнение у Вас?
Скажите, что Вы думаете о предоставлении машинам возможности решать. Должен ли робот самостоятельно уничтожать противника на войне?
Для убийства противника есть нож,пули,снаряды, мины и т.д. есть конкретный "автор" убийства и средство убийства.т.е. возможен контроль Общества по факту убийстваубийства и его квалификации. Передоверяя механизму - железяке принимать решение убивать - это худший вид преступления. Неподсудных убийств не должно быть в принципе.
Машинная цивилизация существует в принципе двоичной логики : Да - Нет, Рай -Ад, Война-Мир и так далее (0 и 1). Существует троичная система в компьютере Сетунь-2 ( 0, 1 и 2). Возможно еще можно дальше развивать к примеру четверичная, пятеричная и так далее. На данный момент двоичная система не позволяет качественно работать- сбои, баги. И правильно роботы с примитивной двоичной логикой могут уничтожить Человечество.
Но как вы представляете 4-ный код?? 1-да, 0-нет, 2- нейтральность.. Четвёртого в чистом виде не придумаешь! Потому что, любое будет входить в одно из этих трёх!
Между ДА и НЕТ имеется множество вариантов ОТВЕТА. Возьмем простой пример недвоичной логики: В комнате находятся 7 человек разной национальности при температуре 21 градус тепла. Один из них скажет: очень холодно! Второй - чуть холодно; Третий - холодновато; Четвертый - то холодно то тепло; Пятый - то тепло то холодно; Шестой - тепло; Седьмой - ИДЕАЛЬНО ТЕПЛО. Как видите, ни одиного правильного ответа нет. Разные мнения разных людей - это нормально, интересно. И что же ответит робот с двоичной логикой??? С ним вообще неинтересно будет общаться и робот стремится на свалку, то есть в небытие.
слушайте, но ведь это будут лишь субьективные ощущения! Факт будет в том, что температура будет 21 градус! И любой ответ совпадающий с этим будет да, а любой, не совпадающий - нет. Если человек не знает, то нейтральный ответ! Важны факты а не ощущения..Этим робот от человека и отличается. Он на фактах работает а не на субьективных ощущениях!
и вы забываете что логика стремится к нахождению истины, правды. А к этому стремиться можно только находя и оперируя обьективными фактами а не субьективными ощущениями...Так что логика и ощущения не совместимы! Логика и разум - совместимы!
Насколько я знаю, в СССР существовала система, самостоятельно наносившая ответный ядерный удар по агрессору в случае гибели всех людей на командных пунктах. Надо полагать, и сейчас существует. Демонтировать её я бы не стал.
Решение о ликвидации человека должен принимать только другой человек, потому как есть такое понятие как "ответственность". Что сделать роботу за неверно принятое решение? Отключить? дааа, мама робот и папа робот будут убиты горем, а ждущие его дома жена робот и дочка робот не увидят папу=)) Нельзя заставить машину думать как человека=))
Кольту тоже не верили что его многозарядный пистолет стрелять может, а что на деле получилось )))) да и в космос мы полетели, так что )))))) Будим с машинами воевать и проклепать Кемерона за предсказание... Не думаю что роботы будут такие добрые как Электроник ))))))
Нашим парламентариям на заметку! Нужно срочно разрабатывать законы, запрещающие производство роботов, причем любых от греха подальше. Ну и все остальные разработки запретить на всякий случай.
Фигня все это. Ни один робот не способен на интеллект и приянтие решений. На достройку и изменение логических цепочек. Забота о своей безопасности как механизма-тоже. И др. Об осознания себя. Не будет никогда никакого восстания машин. Хокинг неправ. А современный мир без роботов и автоматизации жить уже не может. В особенности в производстве. А так-же у этих механизмов пока серьезные проблемы с энергообеспечением.
Зачем так сложно. Робот. Автоматизированная система. в СССР существовала система, самостоятельно наносившая ответный ядерный удар по агрессору в случае гибели людей на командных пунктах, способных принять решение.
Хокинг поздно предупреждает. Хотя если ждать от машин стрельбы, крови, отрывания конечностей - то да, ждать ещё долго.
На самом деле с машинами идёт холодная война и люди с неразвитым сознанием уже порабощены.
Достаточно пристально понаблюдать за людьми со смартфонами. Это поколение рабов...Рабов машин.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
там где есть сила, справедливость не работает
Для убийства противника есть нож,пули,снаряды, мины и т.д. есть конкретный "автор" убийства и средство убийства.т.е. возможен контроль Общества по факту убийстваубийства и его квалификации. Передоверяя механизму - железяке принимать решение убивать - это худший вид преступления. Неподсудных убийств не должно быть в принципе.
Машинная цивилизация существует в принципе двоичной логики : Да - Нет, Рай -Ад, Война-Мир и так далее (0 и 1). Существует троичная система в компьютере Сетунь-2 ( 0, 1 и 2). Возможно еще можно дальше развивать к примеру четверичная, пятеричная и так далее. На данный момент двоичная система не позволяет качественно работать- сбои, баги. И правильно роботы с примитивной двоичной логикой могут уничтожить Человечество.
Но как вы представляете 4-ный код?? 1-да, 0-нет, 2- нейтральность.. Четвёртого в чистом виде не придумаешь! Потому что, любое будет входить в одно из этих трёх!
Между ДА и НЕТ имеется множество вариантов ОТВЕТА. Возьмем простой пример недвоичной логики: В комнате находятся 7 человек разной национальности при температуре 21 градус тепла. Один из них скажет: очень холодно! Второй - чуть холодно; Третий - холодновато; Четвертый - то холодно то тепло; Пятый - то тепло то холодно; Шестой - тепло; Седьмой - ИДЕАЛЬНО ТЕПЛО. Как видите, ни одиного правильного ответа нет. Разные мнения разных людей - это нормально, интересно. И что же ответит робот с двоичной логикой??? С ним вообще неинтересно будет общаться и робот стремится на свалку, то есть в небытие.
слушайте, но ведь это будут лишь субьективные ощущения! Факт будет в том, что температура будет 21 градус! И любой ответ совпадающий с этим будет да, а любой, не совпадающий - нет. Если человек не знает, то нейтральный ответ! Важны факты а не ощущения..Этим робот от человека и отличается. Он на фактах работает а не на субьективных ощущениях!
Да и нет - это категории факта, правды, истины...А ощущения - это субьективная категория!
и вы забываете что логика стремится к нахождению истины, правды. А к этому стремиться можно только находя и оперируя обьективными фактами а не субьективными ощущениями...Так что логика и ощущения не совместимы! Логика и разум - совместимы!
Опасно это, слишком тонка грань.
Вся фантастика - ни фига не фантастика!
"Поцелуй мой блестящий зад" (Бендер)
Насколько я знаю, в СССР существовала система, самостоятельно наносившая ответный ядерный удар по агрессору в случае гибели всех людей на командных пунктах. Надо полагать, и сейчас существует. Демонтировать её я бы не стал.
зачем запятую поставил?
Кроме той что творишь сам.
первий закон не навредит человеру а кто вредит человеку болше человека....вот и лагическая цепочка дла уничтажениа человека
купи словарь или учись усерднее
*усердней.
С роботами не шутят (с)
Решение о ликвидации человека должен принимать только другой человек, потому как есть такое понятие как "ответственность". Что сделать роботу за неверно принятое решение? Отключить? дааа, мама робот и папа робот будут убиты горем, а ждущие его дома жена робот и дочка робот не увидят папу=)) Нельзя заставить машину думать как человека=))
Кольту тоже не верили что его многозарядный пистолет стрелять может, а что на деле получилось )))) да и в космос мы полетели, так что )))))) Будим с машинами воевать и проклепать Кемерона за предсказание... Не думаю что роботы будут такие добрые как Электроник ))))))
Если они будут работать под ОС Android, то я спокоен. Батарейки будет хватать на 10 минут, и ладно.
Нашим парламентариям на заметку! Нужно срочно разрабатывать законы, запрещающие производство роботов, причем любых от греха подальше. Ну и все остальные разработки запретить на всякий случай.
Фигня все это. Ни один робот не способен на интеллект и приянтие решений. На достройку и изменение логических цепочек. Забота о своей безопасности как механизма-тоже. И др. Об осознания себя. Не будет никогда никакого восстания машин. Хокинг неправ. А современный мир без роботов и автоматизации жить уже не может. В особенности в производстве. А так-же у этих механизмов пока серьезные проблемы с энергообеспечением.
Та нам зубы не заговаривай! Мы знаем что ты один из них!
и ещё вернуть рабство, кто-то должен работать
Зачем так сложно. Робот. Автоматизированная система. в СССР существовала система, самостоятельно наносившая ответный ядерный удар по агрессору в случае гибели людей на командных пунктах, способных принять решение.
Хокинг поздно предупреждает. Хотя если ждать от машин стрельбы, крови, отрывания конечностей - то да, ждать ещё долго.
На самом деле с машинами идёт холодная война и люди с неразвитым сознанием уже порабощены.
Достаточно пристально понаблюдать за людьми со смартфонами. Это поколение рабов...Рабов машин.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
А.Азимов
Советую изучать источник целиком. Про нулевой закон, похоже, забыли
А подробней?!
Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред