Subscribe Now
Trending News
Новости

Израиль задействовал искусственный интеллект «Евангелие» для ударов по ХАМАС 

Израиль задействовал искусственный интеллект «Евангелие» для ударов по ХАМАС

Израиль опирается на систему искусственного интеллекта (ИИ) «Евангелие» для выбора целей ударов по сектору Газа пишут британская газета The Guardian, а также издания +972 и Local Call.

Расследование, проведенное +972 и Local Call, основано на беседах с семью действующими и бывшими сотрудниками израильской разведки – в том числе с сотрудниками военной разведки и ВВС, участвовавшими в израильских операциях в осажденном секторе, – а также на свидетельствах палестинцев, данных и документах из сектора Газа, официальных заявлениях пресс-службы ЦАХАЛа и других государственных учреждений Израиля.

В базе данных ЦАХАЛ есть сведения о 30–40 тыс. человек, которых подозревают в членстве в ХАМАС или других группировках, автоматизированная система предлагает координаты жилых домов (в системе указано количество гражданских лиц, которые могут быть убиты в результате атаки на конкретную цель) таких палестинцев, рассказали источники Local Call.

«Ничего не происходит случайно. Когда в доме в Газе убивают трехлетнюю девочку, это происходит потому, что кто-то в армии решил, что в ее гибели нет ничего страшного, что это цена, которую стоит заплатить, чтобы поразить [другую] цель. Мы не ХАМАС. Это не случайные ракеты. Все делается намеренно. Мы точно знаем, сколько сопутствующего ущерба есть в каждом доме», – цитируют расследователи один из источников.

По данным расследования, еще одной причиной масштабного ущерба для жизни гражданского населения в Газе является широкое использование системы под названием «Хабсора» («Евангелие»), которая в значительной степени построена на искусственном интеллекте и может «генерировать» цели почти автоматически со скоростью, значительно превышающей ту, которая была возможна ранее. Эта система ИИ, по словам бывшего офицера разведки, по сути, способствует созданию «фабрики массовых убийств» , в которой упор делался на количество, а не качество.

По словам источников +972 и Local Call, цели в Газе, по которым наносила удары израильская авиация, можно условно разделить на четыре категории. Первая – «тактические цели». К ним относятся стандартные военные цели: ячейки вооруженных боевиков, склады оружия, ракетные установки, пусковые установки противотанковых ракет, минометные расчеты, военные штабы, наблюдательные пункты и так далее.

Вторая группа – это «подземные цели», в основном туннели, которые ХАМАС прорыл под кварталами Газы, в том числе под домами мирных жителей. Авиаудары по этим целям могут привести к обрушению домов, расположенных над туннелями или рядом с ними.

Третья – «силовые цели», к которым относятся высотки и жилые башни в центре городов, а также общественные здания, такие как университеты, банки и правительственные учреждения. По словам трех источников в разведке, участвовавших в планировании и проведении ударов по силовым объектам в прошлом, идея удара по таким целям заключается в том, что преднамеренная атака на палестинское общество окажет «гражданское давление» на ХАМАС.

Последняя категория – это «семейные дома» или «дома оперативников». Заявленная цель этих атак – разрушение частных домов с целью убийства одного жителя, подозреваемого в принадлежности к ХАМАС или «Исламскому джихаду». Однако в ходе нынешней войны, по свидетельствам палестинцев, в некоторых убитых семьях не было ни одного боевика этих организаций.

По сведениям источников The Guardian, высокопоставленные лидеры группировки скрывались в туннелях сразу после начала атак 7 октября, а система ИИ позволила обнаруживать группы боевиков младших по рангу. «Это очень много домов. Члены ХАМАС, которые на самом деле ничего не значат, живут в домах по всему сектору Газа. Поэтому они [войска Израиля] помечают дом, бомбят его, убивая всех, кто там находится», — рассказал собеседник Local Call.

Решение о нанесении удара принимает дежурный командир подразделения, некоторые из которых были «более склонны к насилию, чем остальные», рассказал The Guardian один из операторов, ушедший из израильской армии в 2021-м. Он сообщил о случаях, когда «были сомнения относительно цели» и «мы убили, по моему мнению, непропорционально большое количество мирных жителей».

«Это действительно похоже на фабрику. Мы работаем быстро, и нет времени глубоко вникать в цель. Считается, что нас оценивают по тому, сколько целей нам удалось достичь», — рассказал источник израильского издания, прежде работавший в таком подразделении. Другой собеседник заявил, что «Евангелие» позволило армии управлять «фабрикой массовых убийств», в которой упор делался на количество, а не качество.

Бывший главком израильской армии Авив Кохави еще до начала войны 7 октября говорил, что прежде ЦАХАЛ обнаруживала 50 целей в секторе Газа за год, а система ИИ позволила выявлять сто целей ежедневно.

«Искусственный интеллект представляет собой чрезвычайно серьезный риск, и в значительной степени джинн уже вырвался из бутылки благодаря появлению в сети многочисленных инструментов искусственного интеллекта. Миру необходимо решить эту проблему, дать ей определение, установить строгое регулирование, определить основные механизмы контроля, обеспечить наказание и вложить значительные средства в образование и разъяснение», – выразил мнение Кохави.

Опрошенные изданиями эксперты усомнились, что использование искусственного интеллекта позволяет сократить численность жертв среди гражданских.

Операторы могут склоняться к автоматизации и чрезмерной зависимости от систем, сильно влияющих на сложные человеческие решения, по словам исследователя Марты Бо из SIPRI. Существует опасность потери способности к осмысленной оценке рисков причинения вреда гражданскому населению, когда люди полагаются на эти системы, предупреждает Ричард Мойес из Article 36.

Похожие сообщения