Энергоинформ – развитие энергетики и информационных технологий

Энергоинформ — альтернативная энергетика, энергосбережение, информационно-компьютерные технологии

Энергоинформ / Новости / Новости мира Технологий за 2017 год / Полицейским в Англии будет помогать искусственный интеллект

15.05.2017. Полицейским в Англии будет помогать искусственный интеллект

Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить.

Алгоритм классифицирует задержанных по степени риска — с какой вероятностью они могут вновь совершить преступление.

Программа — Harm Assessment Risk Tool (Hart) — «изучала» данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.

Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования — полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.

Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе «высокого риска» компьютер правильно выявлял в 88% случаев.

Это отражает настройки алгоритма искусственного интеллекта — он запрограммирован «осторожничать» и классифицировать задержанных людей чаще в группы среднего или высокого риска — чтобы не выпускать на свободу тех, кто может снова совершить преступление.

В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.

«Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения», — сказала она в интервью Би-би-си.

Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.

В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.

По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.

В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.

Вопрос о дискриминации

В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.

Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.

«В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди», — говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.

«Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации», — говорит он.

Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.

Рекомендательный характер

В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.

«Информация о почтовом индексе никак напрямую не отражается на результате — окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов», — говорят они.

Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.

Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.

По словам Шины Эрван, возможности этой программы ограничены.

Например, на данный момент система оперирует лишь данными даремской полиции, и у нее нет доступа к общенациональным компьютерным системам британских правоохранительных органов.

Это означает, что если полиция Дарема арестует человека, совершавшего тяжкие преступления в других регионах Британии, алгоритм не сможет точно определить, насколько опасен этот человек.

«Это проблема», — признает Хелен Райан из Винчестерского университета. При этом она добавляет, что «даже без этой системы полиция испытывает затруднения в том, что касается доступа к информации».

Однако, по ее словам, даремский эксперимент чрезвычайно интересен. «Потенциально компьютеры — при наличии достаточного количества информации — могут принимать гораздо более точные решения , чем люди», — считает она.

Источник: Би-Би-Си / Крис Баранюк

© 2005–2019 Энергоинформ — альтернативная энергетика, энергосбережение, информационно-компьютерные технологии