Així fa servir la intel·ligència artificial Israel per escollir objectius per matar a Gaza

 

Dues revistes israelianes, Local Call i +972, han publicat una informació que afirma els primers mesos de la guerra es va fer servir un programari anomenat Lavender per assenyalar fins a 37.000 palestins com a objectius.

Segons Meron Rapoport, editor de les revistes, aquests assenyalaments van servir per matar milers de persones, malgrat que el marge d'error de Lavender seria força gran:

"Sabien que la precisió és tan sols del 90%, la qual cosa significa que el 10% dels atacats no tenen cap contacte ni cap relació amb Hamas ni cap activitat militar."


https://www.ccma.cat/324/aixi-fa-servir-la-intelligencia-artificial-israel-per-escollir-objectius-per-matar-a-gaza/noticia/3287737/