Dorrit Harazim: Algoritmo da morte

Tempo de leitura: 3 min
Destruição em Khan Younis, cidade palestina no sul da Faixa de Gaza, em 10 de abril de 2024. Foto: Linden/OCHA (Escritório das Nações Unidas para a Coordenação de Assuntos Humanitários)

Algoritmo da morte: IA gerou 36 mil alvos humanos a eliminar na Faixa de Gaza

Isso explica a mortandade indiscriminada das seis primeiras semanas da guerra: mais de 15 mil palestinos mortos, quase metade do total de 33 mil vítimas computadas até agora

Por Dorrit Harazim, em O Globo

Até pouco tempo atrás o jornalismo independente da revista on-line +972, com sede em Tel Aviv, era pouco conhecido fora das fronteiras do Oriente Médio.

Publicada em língua inglesa desde sua fundação, em 2010, ela tem direção e corpo editorial composto de israelenses e palestinos.

Seu nome esdrúxulo deriva do código de telefonia usado tanto para Israel como para a Cisjordânia ocupada.

No espectro ideológico que estraçalha a profissão, a +972 pode ser definida como francamente de esquerda. É respeitadíssima junto a entidades internacionais de jornalismo investigativo e inversamente incômoda para o governo de extrema direita de Benjamin Netanyahu. Sobretudo em tempos de guerra.

Em novembro último, quando a +972 publicou um inquietante relato sobre o afrouxamento das normas militares que permitiam o bombardeio de alvos não militares por parte das Forças de Defesa de Israel (FDI), houve pouco alvoroço mundial.

Uma lástima, pois a investigação, assinada pelo veterano Yuval Abraham, se baseava no depoimento inédito sob sigilo de sete integrantes da ativa e da reserva dos serviços de inteligência israelenses — todos com atuação direta na campanha contra Gaza.

Agora, nos primeiros dias de abril, Abraham e a +972 voltaram à carga, em conjunto com o site em hebraico Sichá Mekomit (Chamada Local).

Sempre alicerçado no testemunho de oficiais das FDI, a investigação detalha o funcionamento de dois sistemas de inteligência artificial usados na retaliação militar ao traumático ataque terrorista sofrido em 7 de outubro.

O primeiro, batizado “Lavender” (Lavanda), elabora listas de alvos inimigos a ser assassinados na Faixa de Gaza, praticamente sem verificação humana. De que forma?

O software analisa informações recolhidas sobre a maioria da população de Gaza (2,3 milhões), monitorada em permanência por Israel, e avalia a probabilidade de cada um ser agente do Hamas.

Ao mastigar características de agentes terroristas conhecidos por Israel, o programa busca semelhanças na população. Disso brota a lista de alvos potenciais para assassinatos, produzida pelo algoritmo. As autorizações para o bombardeio passaram a ser quase automáticas, roubando em média 20 segundos de atenção humana.

O segundo programa desenvolvido para a ação militar contra Gaza tem nome com interrogação: “Onde está papai?”.

Destina-se a rastrear alvos para bombardeá-los especificamente em casas, apartamentos ou propriedades rurais familiares.

“Não estávamos interessados em matar agentes do Hamas apenas quando estivessem em instalação militar ou em confronto”, explicou um dos entrevistados. “Ao contrário. Como primeira opção e sem hesitação, as FDI bombardeavam o alvo em família.”

O que explica o altíssimo índice de mulheres e crianças despedaçadas e o apagamento de famílias inteiras.

Segundo entrevistados ouvidos na reportagem, o comando militar de Israel tomou a decisão fatal de tolerar a morte de 15 a 20 civis palestinos para a eliminação de cada militante de pouca relevância. O “dano colateral”.

Quando o alvo inimigo fosse um oficial graduado do Hamas, a tolerância aumentava para cem civis mortos. Ou mais. Para eliminar o comandante da Brigada Central de Gaza, Ayman Nofal, o Exército autorizou, segundo a reportagem, um dano colateral de 300 pessoas.

Foi uma carnificina e tanto no campo de refugiados de Al-Bureij naquele 17 de outubro.

“As regras naquela fase inicial e feroz da campanha eram muito lenientes”, contou um dos informantes. “Arrasavam-se quatro edifícios inteiros, mesmo sabendo que o alvo estava em apenas um — se é que estava. Era muito louco.”

Tão louco que, antes da pressão mundial para a matança ser suspensa, as FDI trabalhavam com margem de erro de 10% nos alvos humanos marcados para morrer. Um horror.

Os critérios da “Lavender” eram fluidos, mudavam a toda hora. Funcionários da Defesa Civil de Gaza ou pequenos burocratas deveriam ser considerados militantes do Hamas? Ou simpatizantes? E quem já pertenceu ao grupo, mas se desligou?

Um único denominador comum foi mantido com rigor: os alvos primários sempre deveriam ser homens, pois nem a ala militar do Hamas nem o grupo terrorista Jihad Islâmica Palestina tem mulheres em suas fileiras.

Foi nessa toada que a inteligência artificial gerou um catatau de 36 mil alvos humanos a ser eliminados na Faixa de Gaza, o que explica a criminosa mortandade indiscriminada das seis primeiras semanas da guerra: mais de 15 mil palestinos mortos, quase metade do total de 33 mil vítimas computadas até agora.

Sem falar no uso maciço das “bombas burras” de arrasa-quarteirão (sem componentes de precisão), responsáveis por danos colaterais infinitamente mais graves que mísseis guiados.

“Não é aconselhável desperdiçar bombas caras com pessoas sem importância”, explica um dos ouvidos na investigação.

Recomenda-se a leitura na íntegra dessa investigação. Um Estado militarizado e de vanguarda tecnológica, em que algoritmos calculam em escala industrial quem deve morrer, precisa ser chamado à razão. A sorte de Israel é ter cidadãos dispostos a jogar luz sobre a desumanidade.

*Dorrit Harazim é jornalista e documentarista

Leia também

Jair de Souza: O que leva o Irã ser contra o Estado de Israel?; vídeo

Jair de Souza: ISIS x Estado de Israel, afinidade total por trás das aparências

Apoie o jornalismo independente


Siga-nos no


Comentários

Clique aqui para ler e comentar

Zé Maria

Excertos

“A investigação detalha o funcionamento
de dois sistemas de inteligência artificial”…

“O primeiro, batizado ‘Lavender’ (Lavanda),
elabora listas de alvos inimigos a ser
assassinados na Faixa de Gaza, praticamente
sem verificação humana.”

“O software analisa informações recolhidas
sobre a maioria da população … (2,3 milhões),
monitorada em permanência por ‘isRéu’.”…

“Ao mastigar características de agentes
‘terroristas’ conhecidos por ‘isRéu’, o
programa busca semelhanças na população.
Disso brota a lista de alvos potenciais
para assassinatos, produzida pelo algoritmo.”…

“O segundo programa desenvolvido para a
ação militar … tem nome com interrogação:
‘Onde está papai?’.

Destina-se a rastrear alvos para bombardeá-los
especificamente em casas, apartamentos ou
propriedades rurais familiares [de Palestinos].”
.
.
O Sonho de Consumo dos Comandantes
das Forças Armadas e das Polícias Militares
[sob Chefia de Governantes Brancos Racistas]
para ser utilizado Contra a População Negra
das Periferias das Grandes Cidades Brasileiras.
.
.

Zé Maria

O Irã disparou 300 Projéteis contra Alvos em isRéu,
segundo noticiaram as Forças Armadas Israelenses.

No Total foram Disparados pelas Forças Iranianas
170 Drones com Explosivos, 120 Mísseis Balísticos
e 30 Mísseis de Cruzeiro em Revide ao Bombardeio
Aéreo Israelense à Embaixada do Irã em Damasco,
Capital da Síria, que matou 16 Pessoas, entre Civis
e Militares Iranianos.

Zé Maria

.

Irã afirma ter Lançado Contra-Ataque de Mais de 300 Mísseis
Contra Alvos em isRéu, “em Retaliação Contra os Repetidos
Crimes do Regime Sionista [de isRéu], incluindo o Bombardeio
Israelense ao Consulado da Embaixada Iraniana em Damasco,
Capital de Síria, que vitimou “.

O Chefe do Estado-Maior das Forças Armadas Iranianas,
General Mohammad Bagheri, disse à Televisão Estatal
do País Persa que a Resposta Iraniana será “Muito Maior
do que a Ação Militar Desta Madrugada (14), se isRéu
retaliar Contra o Irã”, segundo a Reuters.

[Com Informações da BBC de Londres]
.
.

Deixe seu comentário

Leia também