Опасности использования ИИ для написания полицейских отчетов: Что может пойти не так?
Итак, о чём пойдёт речь…
Axon — производители широко используемых полицейских нательных камер и электрошокеров (которыми также продолжают пытаться вооружить дроны) — выпустили новый продукт: ИИ, который будет писать полицейские отчеты за офицеров.
Draft One — это система машинного обучения с использованием генеративной модели большого языка, которая, как сообщается, берет аудио с нательных камер и преобразует его в повествовательный полицейский отчет, который полицейские затем могут отредактировать и подать после инцидента. Axon представляет этот продукт как лучшее средство экономии времени для полицейских департаментов, стремящихся освободить офицеров полиции от работы за столом.
Но всё ли так идеально?
Эта технология может создать новые проблемы для тех, кто сталкивается с полицией, и, особенно, для рабочих масс и тех сообществ, которые полицейские и чиновники привыкли называть «маргинальные». Мы не раз уже наблюдали как обычные граждане подвергаются непропорционально большему количеству «внимания» от полицейских в США.
НЕТОЧНОСТИ РАБОТЫ ПРОГРАММЫ на основе ИИ: Ответственность и кодификация неточностей (намеренных или иных).
Неточности в работе с ИИ
Мы уже видели такое раньше: зернистое и трясущееся видео с нательной камеры полиции, на котором арестовывающий офицер кричит: «Перестань сопротивляться!» Эта фраза не только может привести к усиленному применению силы со стороны полиции, она приводит к прямому применению силы. Все прекрасно знают, что полицейские имеют право избивать во время «предупредительных» выкрикиваний «не сопротивляться», также эти выкрикивания сопровождается более серьезными уголовными обвинениями. Иногда эти крики могут быть оправданы. Но, зачастую, как мы видели снова и снова, повествование о том, что кто-то сопротивляется аресту, может быть искажением ситуации.
ИИ интегрированный в отчёт полицейских может сделать уже и так сложную систему еще более подверженной злоупотреблениям со стороны работников полиции. Стремление полицейских профсоюзов освободить офицеров от работы за столом – вполне понятно, — но эта технология может создать новые и новые проблемы для тех, кто сталкивается с полицией, и особенно для тех бесправных масс, а именно тех районов, где люди живут без адреса и считаются маргинальными сообществами, попросту рабами, которые документально не встроены в систему США.
Как будет работать ИИ?
Например, офицер полициии говорит вслух на видео с нательной камеры: «у подозреваемого есть пистолет», как это будет записано ИИ в конечный продукт повествовательного отчета программного обеспечения? Способности языкового алгоритма обрабатывать и различать широкий спектр языков НЕТОЧНЫ. Существует множество диалектов, разговорных языков, идиом и сленга, которыми люди пользуются в жизни, но которые не знает, не использует и уж тем более не может понять программное обеспечение. Как мы узнали из развития модерации контента в Интернете, программное обеспечение может иметь допустимую способность фиксировать слова, но часто испытывает трудности с контекстом и смыслом. В напряженной обстановке ошибка ИИ, который будет принимать метафорическое высказывание за буквальное утверждение, может коренным образом изменить то, как интерпретируется полицейский отчет.
И… с гуся вода.
Более того Полицейские, которые намеренно говорят неправду или преувеличивают, чтобы сформировать нужный им нарратив на видео с нательных камер, теперь имеют еще больше шансов на правдоподобное отрицание с помощью ИИ-генерируемых полицейских отчетов. Если полиция будет уличена во лжи относительно содержания отчета, офицер может сказать, что он не лгал: ИИ просто неверно расшифровал происходящее на хаотичном видео.
Также полицейским разрешено редактировать рапорт, созданный с помощью ИИ, когда как потерпевшему подозреваемому остаётся только подчиниться как воли полицейского, так и воли корпорации, которая держит в своих руках программное обеспечение ИИ.
Поэтому вопрос становится ребром:
Если отчет создаётся ИИ последовательно из аудио и данный отчёт не придётся по нраву полиции, будет ли у них возможность его редактировать, не выкладывать или вообще не использовать программное обеспечение? Определённо – да, даже если адвокаты полицейских всячески будут это отрицать.
Ведь известно, что полиция арестовывала людей на основании совпадения по технологии распознавания лиц без какого-либо последующего расследования, вопреки утверждениям производителя, что такие результаты следует использовать только как следственную наводку, а не как «положительную идентификацию» и «инструкцию к действию».
На повестке дня рождается проблема.
Полиция, обладая юридической властью убивать, задерживать или, в конечном счете, лишать людей свободы, является слишком могущественной институцией, чтобы держать в своих руках ещё и технологии, которые сделают полицейских ещё более неуязвимыми для критики, прозрачности и ответственности.
Из всего этого напрашивается вывод.
Когда полиция использует ИИ для написания отчетов, могут возникнуть следующие проблемы:
- *Предвзятость и точность*: Системы ИИ, включая генеративные языковые модели, могут унаследовать предвзятости, присутствующие в данных, на которых они обучены. Если ИИ обучен на предвзятых или неполных данных, он может создавать отчеты, отражающие эти предвзятости, что может привести к неточным или несправедливым описаниям, особенно в отношении гражданских масс, а именно самого угнетённого и порабощенного класса – рабочего класса.
- *Ответственность и прозрачность* “Card Blanche” расширяется, Господа!: Автоматическое создание отчетов может затруднить процесс принятия решений полицией. Если в отчете, созданном ИИ, содержатся ошибки или предвзятости, будет сложно определить, откуда они возникли — по вине ИИ или по вине офицеров полиции, редактировавших отчеты. Таким образом, появляется ещё более широкий люфт «ответственности» полицейского, в котором он может плавать как рыба в воде.
- *Неправильное толкование аудио*: ИИ может неправильно интерпретировать аудио с нательных камер, особенно в шумных или хаотичных условиях. Это неправильное толкование может привести к включению неверных деталей в отчеты, что влияет на их достоверность.
- *Зависимость от технологий*: Чрезмерная зависимость от ИИ может привести к тому, что сотрудники полиции станут менее внимательными при ведении записей и написании отчетов, полагаясь на то, что технология справится со всеми деталями. Это может быть проблематично, если ИИ выйдет из строя или сделает значительные ошибки.
- *Проблемы конфиденциальности*: Использование ИИ для обработки видео с нательных камер вызывает вопросы конфиденциальности. Собранные и обработанные ИИ данные могут быть подвержены утечкам или неправомерному использованию, что вызывает опасения за конфиденциальность.
- *Юридические и этические последствия*: Отчеты, созданные ИИ, могут столкнуться с юридическими вызовами по поводу их допустимости в суде. Пробелы и ошибки в отчётах ставят под абсолютное сомнение надежность созданных ИИ описаний, что ещё больше запутает и усложнит то или иное дело. Или, наоборот, развяжет руки органам? – Абсолютно.
- *Выделение и Распределение финансовых средств*: Хотя эта технология предназначена для экономии времени, ее внедрение и обслуживание требуют значительных финансов. Отделам должны выделить достаточное количество ресурсов для обучения сотрудников полиции эффективному использованию ИИ и для контроля качества создаваемых ИИ отчетов.
Ещё несколько трёхочковых «капиталисты» забивают в корзину «рабочего класса»:
- Кто будет оплачивать эти миллиардные затраты? – Конечно, рабочий класс.
- Кому прибавятся часы труда? – рабочему классу.
- Кому повысят интенсивность труда? – рабочему классу.
- Кому понизят стоимость труда? – рабочему классу.
А что же на поле лагеря «привилегированного меньшинства»? – появление кучки новых, обаятельных, благородных, тщеславных «успешных» миллиардеров с очередной историей «я вышел из трущоб, но случай изменил мою жизнь»
- *Положительная сторона*: несмотря на все недостатки, нельзя протестовать за отмену технологий. Корень решения вопроса «Недостатков» кроется в том, в ЧЬИХ РУКАХ НАХОДИТСЯ ТЕХНОЛОГИЯ. И так как технологию ИИ, как и любые другие технологии, держат в своих руках корпорации и банки и их оплот классы чиновников, религиозных институтов, генералитет военных и полиции, то и технология ИИ будет ограничена и действовать лишь в интересах привилегированного класса. Рабочий класс должен осознавать это и готовиться к борьбе за свои права, за свою свободу, за свою жизнь в обществе, покорность приведёт лишь к рабскому бесправию и абсолютному подчинению власть имущих.

