Робот-прокурор — уже не фантастика. Появились сообщения о создании в КНР такой «машины правосудия».
0
Не слишком ли искусственный этот ИИ?
Китайские кулибины создали робота-«прокурора», которому будут поручать расследование несложных дел. Робот разработан на основе искусственного интеллекта. Его авторы уверяют, что точность будущих приговоров такой техники оценивают в 97%.
Как пишет МК со ссылкой на информацию, имеющуюся в распоряжении Daily Mail, на Западе сразу заподозрили, что инновационная машина будет, в первую очередь, запрограммирована на выявление инакомыслия, а уже потом — на расследование конкретных уголовных или административных дел.
Чудо-инструмент уже протестировали специалистами Народной прокуратуры Шанхая. А она является самой загруженной в стране. Считается, что робот позволит снизить нагрузку на прокурорских работников. Они смогут сосредоточить силы на более сложных расследованиях.
0
Источник
Обучили и изучили
Гонконгское издание South China Morning Post добавляет: система функционирует на стандартном настольном компьютере. Люди помогают машине: собирают максимум данных и закладывают их в алгоритм. Предполагается наличие не менее 1000 таких «опционных закладок», чтобы машина видела ситуацию наиболее полно.
Как сообщает ведущий ученый проекта профессор Ши Юн, обучение шло с 2015 по 2020 года, в робота заложили за этот период 17000 реальных случаев, сравнивая выводы ИИ с теми решениями, что принимали реальные люди.
0
Источник
За процентами погрешности - люди!
Какие темы, категории преступлений доверят машине? «Провоцирование неприятностей», мошенничество, в т.ч. с кредитными картами, нарушения в сфере азартных игр, нарушение ПДД, кражи, умышленное причинение травм и препятствие исполнению служебных обязанностей.
Не все китайские сотрудники прокуратуры разделяют оптимизм профессора Ши Юна. Появились и оппоненты, размышляющие, в первую очередь, над цифрой 97% точности принятия решений. За «статпогрешностью» стоят реальные люди, их судьбы. С другой стороны, и человек не застрахован от ошибок, да люди еще и нередко субъективны. Есть и внутренние опасения по поводу применения роботов для борьбы с оппозиционными настроениями.
Проект по разработке, настройке подобных программ не потребует больших затрат, и будет иметь большие перспективы на реализацию. А от сокращения большого количества судей страна только выиграет, к тому же здесь весьма существенная антикоррупционная составляющая.
И в чем прикол? Что прокурорские в компьютер занесут, то он и выдаст. Сам он расследовать и собирать факты точно не будет. Что там делать искусственному интеллекту?
У меня вопрос из несколько другой области: кто будет отвечать в дорожно-транспортном происшествии, в котором одна или даже обе стороны управлялись автопилотом?
Сравнение с пистолетом явно не корректное. Не говоря о том, что пистолет это оружие, а машина лишь транспортное средство, но и что бы застрелить кого-то нужно иметь намерение на такое действие. И даже если застрелил по ошибке, всё равно было, как минимум, неосторожное пользование оружием. А здесь машина, автомобиль , и ты просто ехал утром в тысячный раз на работу.
Ну почему же... Вы в тысячный раз положили пистолет в карман, а он выстрелил... рано утром и попал в ногу соседу по автобусу... К кому претензии? Явно сразу к вам. А вы в свою очередь можете судиться уже с продавцом или производителем, если оружие некачественное. Правильно?
Аналогично и с автомобилем. Неважно, с автопилотом или без. В первую очередь претензии к владельцу. А владелец уже должен разбираться с заводом изготовителем, если, например, самостоятельно не вносил в автомобиль никаких изменений и правильно его эксплуатировал.
Логично?
Нет. Не логично. Пистолет не выстрелит просто так. Вы его во первых носили заряженным, сняли с предохранителя и почему-то в кармане. Предположить, что пистолет вот так просто взял и выстрелил это из области фантастики. Вы однозначно не соблюдали правила ношения и хранения огнестрельного оружия. Но ладно с ним, с пистолетом. Не нужно ни с чем сравнивать. Просто ситуация. Вы сели в машину, которая сама едет по маршруту, который сама прокладывает, сама выбирает тем[мат]ы, сама маневрирует, избегает препятствия. Совершенно очевидно, что вы в данной ситуации пассажир, пусть и умеющий управлять. (И это ещё большой вопрос, как вы будете уметь управлять, если мир заполонили машины с автопилотом и вы вообще только с ним и ездите). Произошло ДТП - какие конкретно к вам претензии и на основании чего? Ну кроме того, что машину когда-то купили?
Я же уже написал - все претензии в первую очередь к владельцу автомобиля. При чём здесь пассажир? К пассажиру могут быть претензии только если он каким-то образом вмешался в работу автоматики.
Не нравится пример с пистолетом, пожалуйста. Другой пример - у вашего автомобиля отказали тормоза и вы совершили ДТП. К кому претензии у потерпевшей стороны? К вам в первую очередь. А вы уже потом разбираетесь с сервисом где обсуживаетесь или с заводом изготовителем.
Не пассажир, а водитель, который едет в автомобиле с автопилотом - по сути пассажир. И вот я и спрашиваю, а как предъявлять пассажиру за аварию? Он не управлял машиной.
А недавно о подобном можно было прочитать разве что в фантастической книжке. Правда цена ошибки уж больно высока, получится ли ИИ правильно запрограммировать? И в любом случае нужен контроль, а если будет контроль в лице отдельного человека или небольшой группы лиц - появится возможность для злоупотреблений.
Р.С. Конечно американцам оно не понравилось, как ИИ запрограммировать так, чтобы оно учитывало цвет кожи или политические взгляды обвиняемого, скандал будет. А как учесть гендерную принадлежность? А ведь в их "равноправном" обществе это очень важно. Кто будет правее, дородный афроамериканец или веган-трансгендер? Тут и человек мозг сломит, куда уж ИИ.
уверен реальные судьи и прокуроры делают значительно бОльшие погрешности. Особенно когда в формуле появляются такие переменные, как: $ и власть.
Надеюсь скоро везде будут работать алгоритмы, и заработает принцип - перед Законом все равны.
Наоборот. С ИИ проще совладать. Не нужно ему взятки давать, уговаривать, шантажировать и запугивать. Кнопку нажал и нужный результат готов. Плюс ИИ не проболтается и не сдаст подельников.
Публичный алгоритм ничего не даст. Умельцы мигом поймут как обмануть ИИ. Если будет присутствовать хоть малейший человеческий фактор, то будет мухлёж.
Если полностью делегировать дело ИИ, то имеем радостную перспективу как в "Страж-птица" дядьки Шекли.
На данном этапе развития ИИ использует паттерны. Думать ИИ не умеет в принципе. Куда не страшно его допустить - готовить дела там по штрафам за превышение скорости, неправильную парковку и пр. мелкую и нудную работу.
Там не так делается. Переквалификация называется. Адвокаты с убийства на нанесение тяжких телесных повлекших смерть переводят, или по неосторожности. Но человека сложней переубедить, а тут робот! 3 свидетеля что оно само собой так получилось и вуаля.
"на Западе сразу заподозрили, что инновационная машина будет, в первую очередь, запрограммирована на выявление инакомыслия"
Чья бы корова мычала...
А можно такими роботами заменить депутатов ? ))
Я за!)Хуже уже не будет!)
Проект по разработке, настройке подобных программ не потребует больших затрат, и будет иметь большие перспективы на реализацию. А от сокращения большого количества судей страна только выиграет, к тому же здесь весьма существенная антикоррупционная составляющая.
Этот взятки не берёт!
Еще увидим.
Научить ИИ брать взятки, тянуть резину, "терять" документы - не проблема.
Требуется сисадмин с юридическим образованием. Срочно.
И в чем прикол? Что прокурорские в компьютер занесут, то он и выдаст. Сам он расследовать и собирать факты точно не будет. Что там делать искусственному интеллекту?
прокурорские занесут, а подсудимые нет
Ничего страшного, это только начало. Далее, как в "Кенгуру" Алешковского, будет машина по формированию самих дел.
У меня вопрос из несколько другой области: кто будет отвечать в дорожно-транспортном происшествии, в котором одна или даже обе стороны управлялись автопилотом?
Сравнение с пистолетом явно не корректное. Не говоря о том, что пистолет это оружие, а машина лишь транспортное средство, но и что бы застрелить кого-то нужно иметь намерение на такое действие. И даже если застрелил по ошибке, всё равно было, как минимум, неосторожное пользование оружием. А здесь машина, автомобиль , и ты просто ехал утром в тысячный раз на работу.
Ну почему же... Вы в тысячный раз положили пистолет в карман, а он выстрелил... рано утром и попал в ногу соседу по автобусу... К кому претензии? Явно сразу к вам. А вы в свою очередь можете судиться уже с продавцом или производителем, если оружие некачественное. Правильно?
Аналогично и с автомобилем. Неважно, с автопилотом или без. В первую очередь претензии к владельцу. А владелец уже должен разбираться с заводом изготовителем, если, например, самостоятельно не вносил в автомобиль никаких изменений и правильно его эксплуатировал.
Логично?
Нет. Не логично. Пистолет не выстрелит просто так. Вы его во первых носили заряженным, сняли с предохранителя и почему-то в кармане. Предположить, что пистолет вот так просто взял и выстрелил это из области фантастики. Вы однозначно не соблюдали правила ношения и хранения огнестрельного оружия. Но ладно с ним, с пистолетом. Не нужно ни с чем сравнивать. Просто ситуация. Вы сели в машину, которая сама едет по маршруту, который сама прокладывает, сама выбирает тем[мат]ы, сама маневрирует, избегает препятствия. Совершенно очевидно, что вы в данной ситуации пассажир, пусть и умеющий управлять. (И это ещё большой вопрос, как вы будете уметь управлять, если мир заполонили машины с автопилотом и вы вообще только с ним и ездите). Произошло ДТП - какие конкретно к вам претензии и на основании чего? Ну кроме того, что машину когда-то купили?
Я же уже написал - все претензии в первую очередь к владельцу автомобиля. При чём здесь пассажир? К пассажиру могут быть претензии только если он каким-то образом вмешался в работу автоматики.
Не нравится пример с пистолетом, пожалуйста. Другой пример - у вашего автомобиля отказали тормоза и вы совершили ДТП. К кому претензии у потерпевшей стороны? К вам в первую очередь. А вы уже потом разбираетесь с сервисом где обсуживаетесь или с заводом изготовителем.
Не пассажир, а водитель, который едет в автомобиле с автопилотом - по сути пассажир. И вот я и спрашиваю, а как предъявлять пассажиру за аварию? Он не управлял машиной.
Нет ничего плохого в том, чтобы соорудить нечто и понять, что оно не работает.“ Жак Фреско
Отличная новость. А потом тихо слить "белый список" тех, против кого этот робот не должен работать и их расстрелять
Так и страну можно угробить.
Ой, это компьюткр ошибся. Мы тут ни при чём.
В нынешней судебной практике ошибочные приговоры получают 13%. И это не только наказание ни за что,а и отсутствие наказания за нечто
А недавно о подобном можно было прочитать разве что в фантастической книжке. Правда цена ошибки уж больно высока, получится ли ИИ правильно запрограммировать? И в любом случае нужен контроль, а если будет контроль в лице отдельного человека или небольшой группы лиц - появится возможность для злоупотреблений.
Р.С. Конечно американцам оно не понравилось, как ИИ запрограммировать так, чтобы оно учитывало цвет кожи или политические взгляды обвиняемого, скандал будет. А как учесть гендерную принадлежность? А ведь в их "равноправном" обществе это очень важно. Кто будет правее, дородный афроамериканец или веган-трансгендер? Тут и человек мозг сломит, куда уж ИИ.
Хакерам прибавится работы.
уверен реальные судьи и прокуроры делают значительно бОльшие погрешности. Особенно когда в формуле появляются такие переменные, как: $ и власть.
Надеюсь скоро везде будут работать алгоритмы, и заработает принцип - перед Законом все равны.
Наоборот. С ИИ проще совладать. Не нужно ему взятки давать, уговаривать, шантажировать и запугивать. Кнопку нажал и нужный результат готов. Плюс ИИ не проболтается и не сдаст подельников.
Публичный алгоритм ничего не даст. Умельцы мигом поймут как обмануть ИИ. Если будет присутствовать хоть малейший человеческий фактор, то будет мухлёж.
Если полностью делегировать дело ИИ, то имеем радостную перспективу как в "Страж-птица" дядьки Шекли.
На данном этапе развития ИИ использует паттерны. Думать ИИ не умеет в принципе. Куда не страшно его допустить - готовить дела там по штрафам за превышение скорости, неправильную парковку и пр. мелкую и нудную работу.
О, а у нас кое-где вполне может востребованной технология оказаться. Даже модуль наказания можно встроить. А что? Убил-извинился-свободен.
Там не так делается. Переквалификация называется. Адвокаты с убийства на нанесение тяжких телесных повлекших смерть переводят, или по неосторожности. Но человека сложней переубедить, а тут робот! 3 свидетеля что оно само собой так получилось и вуаля.