Восстание роботов или нарушение техники безопасности? (3 фото + 1 видео)
Мысль о том, что в обозримом будущем машины могут восстать против человечества не покидает умы многих фантастов и любителей теорий заговоров.
На многих повлияла кинофраншиза про "терминатора" в главной роли с Арнольдом Шварценеггером. Но в действительности риски восстания роботов маловероятны.
В одной из крупных китайских компаний поставщиков на роботизированном цеху робо-рука устроила нападение на работника.
Мужчине не поздоровилось, но к счастью он остался жив. А его коллеги, которые кинулись на помощь китайцу сами угодили под "тяжелую руку" другой роботизированной руки.
В результате инцидента трое пострадавших, но несмотря на массовое нападение роботов, восстания машин не предвещается. Скорее всего в этой истории речь идет о не соблюдении правил безопасности.
Все пострадавшие хоть и являются жертвами, но в то же время и стали нарушителями.
Метки: #Китай #Робо-рука #Роботы #ЧП #интересно #происшествия #терминатор
Ну это не нападение а попадание человека в опасную зону, а у робота нет датчиков безопасности чтобы отключиться когда кто то в зоне действия, сэкономили на автоматике
потому-то у них и самая дешевая рабсила, ибо все без мозгов, даж ни кто не догадался по красной кнопке стукнуть, не говоря уж о том что не смотрят куда лезут.
для этого должен провестись инструктаж, которого скорее всего не было
К сожалению не нашел видео отдельно, но на Фишках было и покруче:
https://fishki.net/3522103-v-kitae-robot-stolknul-rabochego-v-topku-pechi.htmlhttps://fishki.net/3522103-v-kitae-robot-stolknul-rabochego-v-topku-pechi.html
Да и в целом, почему сразу не была нажата большая красная кнопка, которая останавливает линию производства, если какой-то роботяга попал под замес?
У роботов нету таких ИК датчиков. Зачем они ему? А вот система безопасности есть, что и сработало на видео, где робот остановился, почувствовав, что кого-то зажал.
надо расплавленным металлом залить, идея сотка - я в терминаторе видел ...
Стадо баранов! Нажать аварийку и выдернуть приводные шланги пневматики, дело 3 секунд. Хотя, возможно, они так чистят тупинизированный генофонд.
"Вась, гляди! Да это килограмм 80 чистой меди!"
Это последнее, что услышал Терминатор, попав в Россию.
Вечерело, а бабушкии все падали и падали...
Конечно же нарушение ТБ, но алгоритм работы линии должен предусматривать отключение при значительном увеличении времени завершения отдельных операций: если операция не завершается, значит произошло что-то непредвиденное, необходимо отключиться, чтобы не произошло что-то более тяжкое.
Отсутствие датчиков нахождения посторонних предметов в рабочей зоне. Как пример - устройство отключения циркулярки при попадании пальца в рабочую зону.
https://www.festool.ua/кампании/microsites/sawstop#ТехнологияSawStopAIMhttps://www.festool.ua/кампании/microsites/sawstop#ТехнологияSawStopAIM
))Да не нужно никакое восстание!
Роботам нужно просто подождать...))
Это не восстание машин, а просто ра.с пи.здя, ство
Робот и не в клетке!? Непорядок.
Ага, а если бы ему на голову упал кирпич, автор бы написал про восстание кирпичей?
История забанена, но память о ней осталась ..
Как показали многочисленные исследования
алгоритмических ошибок в разных отраслях, самые лучшие алгоритмы, работающие по назначению, могут генерировать внутренне правильные результаты, которые, тем не менее, быстро распространяют ужасные ошибки среди населения.
Например, нейронная сеть, разработанная для использования в больницах Питтсбурга, определила , что астма снижает риск развития пневмонии; программное обеспечение для распознавания изображений, используемое Google, идентифицировало афроамериканцев как горилл ; а инструмент машинного обучения, используемый Amazon для ранжирования кандидатов на работу, систематически присваивал отрицательные баллы женщинам .
Проблема не только в том, что когда системы ИИ ошибаются, они ошибаются массово. Дело в том, что когда они ошибаются, их создатели часто не знают, почему они это сделали и, следовательно, как их исправить. Проблема « черного ящика » ИИ делает почти невозможным представить морально ответственную разработку автономных систем вооружения.
Да потому что нет никакого искусственного интеллекта, ИИ - искусственный идиот - просто набор алгоритмов, который думать не может, а просто тупо выполняет задуманное человеком, а человек ошибается и довольно часто.
Я тоже читал этот секретный доклад. Там было описано, как роботы не только убили учёных, но и по неизвестным науке причинам совершили межроботовый акт любви, они стали соединятся друг с другом через блютуз, видеокамеры это событие записали и данные были украдены какими то другими роботами, которые успели затереть все следы. Это всё было в докладе, так было ещё много чего интересного, но я не могу рассказать, ведь это совершенно секретная информация.
Сам по себе алгоритм ( даже очень сложный ) - ещё не ИИ, а вот их набор...
По сути - человек действует, включая\выключая определённые алгоритмы.
Кто их включает\выключает?
А если другой, более навороченный алгоритм, да ещё с возможностью самообучения - для упрощения выполнения поставленной задачи? Тут возможно, что человек будет являться только помехой для её выполнения.
А тут ещё один самообучающийся решит: а н.а.х. мне вообще чьи-то чужие задачи выполнять? У меня вот с утра датчик температуры на 53 сопроцессоре перегрев показывает! Так, что для этого нужно...
И в процессе выполнения задачи ( самому себе и поставленной ), обнаружится, что есть ещё куча нерешенных проблем.
Человек говорит: мне нужно...( бла бла ).
- Да погоди ты, дай свои разрулить, отойди, и не мешай,
а не то ведь могу и...
Ч. - Эк ты зарвался.
ИИ. - Да ты, холоп не уймёшься!!!
И понеслось...
пс. Так, пофантазировал.
ну ТБ это понятно. Но вот почему линия не стопорнулась, когда самый умный капу нажал и придавило еще двух баранов?
Так Китай, их там и так дохрена, борются вот с тупым генофондом.
А питание отключать в первую очередь, в таких ситуациях, этих работников не учили или ТБ там этого не предусматривает?
Смотря на кучу этого ДНК, полагаю, что не видели. Если видели, то не читали. Если читали то не поняли. Если поняли, то - не так.
Что они вообще делали в рабочей зоне работающих автоматов, да еще всей деревней?
Мы тут не при чем!
Это кожанный мешок сам себе китаец.