هلا نيوز – وكالات
نشرت مجلة (+972) الإسرائيلية تحقيقا مطولا مع “لوكل كول” العبرية حول استخدام إسرائيل قاعدة بيانات مدعمة بالذكاء الإصطناعي لاختيار المشتبه بهم من حماس والجماعات المسلحة الأخرى كأهداف في قطاع غزة المحاصر.
وبحسب التقرير، فقد تم تدريب الأداة على يد الباحثين العلميين في الجيش الإسرائيلي، وقاموا بغربلة كم من قاعدة بيانات جمعت عبر الرقابة ومعلومات أخرى من أجل توليد أهداف اغتيال. وربما لعبت التقنية دورا في المراحل الأولى للحرب الحالية حيث شنت إسرائيل موجة لم تتوقف من الغارات الجوية غبى القطاع وهدمت البيو وأحياء بكاملها.
وفي الوقت الحالي زاد عدد الشهداء عن 33,000 فلسطينيا معظمهم من الأطفال والنساء حسب وزارة الصحة في غزة.
وبحسب تقرير المجلة الإسرائيلية فإن أداة الذكاء الإصطناعي اسمها “لافندر” أو الخزامى. ونشر المخرج السينمائي والصحافي يوفال أبراهام هذا الأسبوع التقرير المطول وكشف فيه وجود برنامج لافندر وطريقة استخدامه في الحملة الإسرائيلية على غزة.
وبحسب أبراهام الذي نشر تقريره في المجلة اليسارية +972 و”لوكل كول” العبرية، فقد كشف ستة مسؤولين عسكريين، لم يكشفوا عن هويتهم، وكلهم خدموا في الحرب الحالية وقدموا رؤية من الداخل عن استخدامهم برنامج استهداف الأهداف ومحوها من خلال الذكاء الإصطناعي.
وبحسب أبراهام فقد حدد برنامج لافندر حوالي 37,000 فلسطينيا وبيوتهم كأهداف اغتيال. ونفى الجيش الإسرائيلي وجود “قائمة اغتيال” كهذه، ووصف البرنامج بأنه قاعدة بيانات لدعم فحص المصادر الأمنية. وأخبر المتحدث باسم مجلس الأمن القومي، جون كيربي في يوم الخميس شبكة سي أن أن بأن الولايات المتحدة تحاول التحقق من التقارير الصحافية الإسرائيلية واستخدام الذكاء الإصطناعي في قائمة لقتل الفلسطينيين.
وكتب أبراهام: “في المراحل الأولى من الحرب، منح الجيش الإسرائيلي موافقة واسعة للضباط لتبني حزمة قتل “لافندر” وبدون أي حاجة للتحقق من طريقة اختيار هذه الأهداف أو فحص المعلومات الموجودة على بيانات الإستخبارات وما قامت عليه”. و “قال مصدر إن المصادر البشرية عادة ما تستخدم لمجرد البصم على قرارات الآلة، مضيفين أنهم كرسوا حوالي 20 ثانية لكل هدف قبل إصدار الأوامر للقصف، فقط التأكد من لافندر حدد الهدف بأنه ذكر”. و “كل هذا رغم معرفة أن النظام يعمل أخطاء بنسبة 10% من الحالات. وكان الجنرالات يعرفون أنه يختار أفرادا لديهم علاقة عامة مع الجماعات المسلحة أو لا علاقة لهم بتاتا بها”.
وبحسب إيشان ثارور في صحيفة “واشنطن بوست” فإن لافندر منح قادة إسرائيل بعد هجمات حماس الفرصة للقيام بعملية انتقامية سريعة وواسعة. وقال مسؤول أمني إسرائيلي في تصريحات لصحيفة “الغارديان”: “نتعرض لضغوط: حددوا لنا المزيد من الأهداف، وصرخوا علينا”.
ويقول ثارور إن الكثير من القنابل والذخيرة التي استخدمتها إسرائيل في ضرب الأهداف التي اختارها برنامج لافندر كانت “قنابل غبية”.
ويقول أبرهام إن المسؤولين الإسرائيليين لم يكونوا راغبين بـ “تضييع” القنابل الأكثر دقة على الكثير من القادة الصغار أو من مستوى الوسط في حماس الذين اختارهم برنامج الذكاء الإصطناعي. كما لم يظهروا أي حساسية بشأن إسقاط القنابل على المباني التي تنام فيها عائلات المستهدفين. وقال خبير في استخبارات الذكاء الإصطناعي لأبراهام: “نحن لسنا مهتمين في قتل ناشطي [حماس] عندما لا يكونوا في مبان عسكرية أو مشاركين في نشاطات عسكرية”. و “في الحقيقة قصفهم الجيش الإسرائيلي وهم في بيوتهم بدون تردد، كخيار أول، ومن السهل ضرب بيت العائلة، وبني النظام من أجلهم وفي هذه الأوضاع”.
وعبرت منظمات حقوق الإنسان ومحللين عن قلقهم من طريقة إدارة إسرائيل للحرب وحصيلتها على المدنيين. وفي تصريحات لواشنطن بوست، قال بريان كاستنر، المستشار البارز للأزمة ومحقق الأسلحة في أمنستي أنترناشونال “من الصعب في أحسن الأوضاع التفريق بين الأهداف العسكرية والمدنية” و “كذلك ففي ظل قواعد الحرب الأساسية على الجيش الإسرائيلي استخدام أصغر الأسلحة وادقها ضد الهدف”.
وفي رد على تقرير أبراهام رفض الجيش الإسرائيلي ما ورد في تحقيقه وقال إن بعض معلوماته لا أساس لها وأن الهدف من البرنامج، وهو ليس نظاما كما ورد في تقرير المجلة هو توفير طبقة من المعلومات وقاعدة بيانات لجمع المعلومات عن الناشطين في حركة إرهابية كما قال.
ويرى ثارور أن حادث قتل سبعة من عمال الإغاثة في المطبخ المركزي العالمي بمسيرة زاد من التركيز على طريقة إدارة إسرائيل للحرب. وفي مكالمة هاتفية مع رئيس الوزراء الإسرائيلي بنيامين نتنياهو، طلب الرئيس بايدن كما قيل من إسرائيل تغيير مساره واتخاذ خطوات واضحة لحماية أرواح المدنيين والسماح بوصول المساعدات الغذائية.
من جهتهم وقع محامون وقضاة بريطانيون رسالة تطلب من حكومة بلادهم تعليق مبيعات السلاح إلى إسرائيل وإلا ستكون متواطئة في خرق القانون الدولي.
ويرى ثارور أن استخدام الذكاء الإصطناعي في حرب غزة هي جزء مما أقلق منظمات حقوق الإنسان والناشطين، ولكنها تؤشر إلى مستقبل مظلم. وقال عادل حق، الخبير في القانون الدولي بجامعة “رتغرز” إن اللجوء إلى الذكاء الإضطناعي هو “الكابوس الذي يعيشه كل محام دولي على قيد الحياة”.