هرچند ظهور فناوریهای جدید در جنگ اغلب با ادعاهایی از این قبیل همراه است که آسیب به غیرنظامیان را کاهش میدهد، اما این در عمل ثابت نشده است. در سالی که «هوش مصنوعی» سرخط خبرها را در سرتاسر جهان از آن خود کرده، درباره این عنصر در جنگ اسرائیل و حماس به طرز عجیبی کمتر بحث شده است. با توجه به سوالات کاربردی و اخلاقی بیشماری که همچنان پیرامون این فناوری وجود دارد، آیا اسرائیل نباید در مورد نحوه بهکارگیری هوش مصنوعی در حملاتش به سرزمین فلسطین پاسخگو باشد؟ «گاردین» در گزارش خود با عناوین «چگونه اسرائیل از هوش مصنوعی برای انتخاب اهداف بمباران در غزه استفاده میکند» و «نگرانی درباره «کارخانه» دادهمحور که بهطور چشمگیری اهداف حمله در سرزمین فلسطین را افزایش میدهد» میگوید: «ارتش اسرائیل شدت بمباران نوار غزه را پنهان نکرده است. در روزهای اولیه تهاجم، رئیس نیروی هوایی آن از حملات هوایی بیامان «بیستوچهار ساعته» صحبت کرد. با این حال، توجه نسبتا کمی به روشهای نیروهای دفاعی اسرائیل (IDF) برای انتخاب اهداف در غزه و نقش «هوش مصنوعی» در بمباران آنها شده است. در حالی که اسرائیل حملات خود را پس از آتشبسی هفت روزه از سر گرفته، نگرانیهای بسیاری در مورد رویکرد هدفگیری ارتش اسرائیل در جنگ علیه حماس وجود دارد که به گفته وزارت بهداشت غزه، تاکنون بیش از 15 هزار نفر را در این منطقه کشته است.»
خط تولید مرگ: روزنامه گاردین با بیان اینکه ارتش اسرائیل قبلا ادعاهای بیپروا، اما غیرقابل تأییدی درباره استفاده از این فناوری جدید داشته است، اضافه میکند: «پس از جنگ 11 روزه غزه در ماه می 2021، مقامات گفتند که اسرائیل «اولین جنگ هوش مصنوعی» خود را با استفاده از یادگیری ماشینی و محاسبات پیشرفته انجام داده است. جنگ اخیر اسرائیل و حماس فرصت بیسابقهای را برای ارتش اسرائیل فراهم کرده تا از چنین ابزارهایی در صحنه عملیاتی بسیار گستردهتر و بهویژه برای استقرار یک پلتفرم «ایجاد هدف» هوش مصنوعی به نام «گاسپل» (the Gospel) استفاده کند، که به طور قابل توجهی «خط تولید مرگ اهداف» را شتاب داده است که مقامات آن را با یک «کارخانه» مقایسه کردهاند! «گاردین» با استفاده از مصاحبهها با منابع اطلاعاتی و اظهاراتی از ارتش اسرائیل و مقامات بازنشسته، جزییات جدیدی درباره «گاسپل» و نقش مرکزی آن در جنگ اسرائیل در غزه فاش میکند. این مقاله همچنین بر اساس اظهارات منتشر شده نشریه اسرائیلی-فلسطینی «+972 Magazine » و خبرگزاری عبری زبان Local Call گرد آمده که با چندین منبع فعلی و سابق در جامعه اطلاعاتی اسرائیل که از پلتفرم «گاسپل» اطلاع دارند، مصاحبه کردهاند. نظرات آنها نگاهی اجمالی به درون یک واحد اطلاعات نظامی مخفی و با تسهیلات هوش مصنوعی دارد که نقش مهمی در واکنش اسرائیل به حمله حماس در جنوب اسرائیل در 7 اکتبر ایفا میکند.
«کشورهایهای دیگر به تماشا و یادگیری میپردازند» : این روزنامه در ادامه گزارش خود میافزاید: «تصویری که به آرامی از نحوه استفاده ارتش اسرائیل از هوش مصنوعی در حال ظهور است با نگرانیهای روزافزون در مورد خطراتی که برای غیرنظامیان ایجاد میکند، همراه است. این در حالی است که ارتشهای پیشرفته در سراسر جهان استفاده از سیستمهای خودکار پیچیده و غیرشفاف را در میدان جنگ گسترش میدهند. یک مقام امنیتی سابق کاخ سفید که با استفاده ارتش آمریکا از سیستمهای بینیاز از کاربر آشناست، گفت که کشورهایهای دیگر به تماشا و یادگیری خواهند پرداخت. آنها گفتند که جنگ اسرائیل و حماس لحظه مهمی خواهد بود اگر ارتش اسرائیل از هوش مصنوعی بهطور قابل توجهی برای انتخاب هدف استفاده کند.»
از 50 هدف در سال تا 100 هدف در روز! «در اوایل نوامبر، ارتش اسرائیل اعلام کرد که بیش از 12 هزار هدف در غزه توسط بخش مدیریت هدف آن شناسایی شده است. یک مقام مسئول در تشریح روند هدفگیری این بخش گفت: «ما بدون توافق در تشخیص اینکه دشمن کیست و چیست کار میکنیم. عوامل حماس در امان نیستند، مهم نیست کجا باشند.» فعالیتهای این بخش که در سال 2019 در اداره اطلاعات ارتش اسرائیل تشکیل شد، طبقهبندیشده است.» گاردین با بیان این مطلب ادامه میدهد: «با اینحال، بیانیه کوتاهی در وبسایت ارتش اسرائیل مدعی شد که از یک سیستم مبتنی بر هوش مصنوعی به نام Habsora (گاسپل به زبان انگلیسی) در جنگ علیه حماس برای تولید اهداف با سرعت بالا استفاده میکند. چندین منبع آشنا با فرآیندهای هدفگیری ارتش اسرائیل وجود «گاسپل» را تأیید کردند و گفتند که از آن برای تهیه توصیههای خودکار برای حمله به اهدافی مانند خانههای شخصی افراد مظنون به عضویت در حماس یا جهاد اسلامی استفاده شده است. در سالهای اخیر، این بخش به ارتش اسرائیل کمک کرده تا پایگاه دادهای از آنچه منابع گفتهاند شامل 30 هزار تا 40 هزار نفر است، بسازد. به گفته آنها، سیستمهایی مانند «گاسپل»، نقش مهمی در تهیه لیست افراد مجاز برای ترور داشتند.» این روزنامه میگوید: «آویو کوچاوی که تا ژانویه به عنوان رئیس ارتش اسرائیل خدمت میکرد، در مصاحبهای که قبل از این جنگ منتشر شد، گفت: «بخش هوش مصنوعی همچون ماشینی است که حجم وسیعی از دادهها را موثرتر از هر انسان دیگری تولید و آنها را به اهدافی برای حمله تبدیل میکند» به گفته کوچاوی، در گذشته سالانه 50 هدف در غزه تولید میکردیم. اکنون این ماشین روزانه 100 هدف تولید میکند که 50 درصد آنها مورد حمله قرار میگیرد. در بیانیه کوتاه ارتش اسرائیل یک مقام ارشد ادعا کرد که این واحد «حملات دقیقی را به زیرساختهای مرتبط با حماس انجام میدهد؛ در حالی که کمترین آسیب را به غیرنظامیان وارد میکند.» رسانهها و مقامات اسرائیلی مدعیاند که حملات توصیهشده توسط «بانک هدف هوش مصنوعی» تا آنجا که ممکن است آسیبی به غیرنظامیان وارد نمیکند!»
به چشمانداز فیزیکی غزه نگاه کنید!: با اینحال، کارشناسان هوش مصنوعی و درگیریهای مسلحانه که با «گاردین» صحبت کردند، گفتند که نسبت به این ادعاها که سیستمهای مبتنی بر هوش مصنوعی با هدفگیری دقیقتر، آسیب به غیرنظامیان را کاهش میدهد، تردید دارند. وکیلی که به دولتها در مورد هوش مصنوعی و رعایت قوانین بشردوستانه مشاوره میدهد، گفت که شواهد تجربی اندکی برای حمایت از چنین ادعاهایی وجود دارد. برخی دیگر به تأثیر قابل مشاهده بمباران اشاره کردند. ریچارد مویز (Richard Moyes)، محقق، به گاردین گفت: «به چشمانداز فیزیکی غزه نگاه کنید! ما شاهد تسطیح گسترده یک منطقه شهری با استفاده از سلاحهای انفجاری سنگین هستیم، بنابراین واقعیتها ادعای دقت را تایید نمیکند.» ما کشتیم!
گاردین در ادامه گزارش خود تاکید میکند: «بر اساس آمار منتشر شده ارتش اسرائیل در ماه نوامبر، اسرائیل در طول 35 روز اول این جنگ به 15 هزار هدف در غزه حمله کرد؛ رقمی که بهطور چشمگیری بزرگتر از عملیاتهای نظامی قبلی در این منطقه پرجمعیت ساحلی است. در مقایسه، در جنگ سال 2014 میلادی که 51 روز به طول انجامید، ارتش اسرائیل بین 5000 تا 6000 هدف را مورد اصابت قرار داد. منابع متعددی به «گاردین» گفتند که وقتی اجازه حمله به خانههای شخصی افراد به عنوان عوامل حماس یا جهاد اسلامی صادر شد، پیشاپیش از تعداد غیرنظامیانی که انتظار میرفت کشته شوند، اطلاع داشتند. یکی از منابعی که تا سال 2021 روی برنامهریزی حملات برای ارتش اسرائیل کار میکرد، گفت: «موقعیتهایی بوده که در مورد یک هدف تردید وجود داشته، ولی ما کشتیم، که فکر میکنم تعداد زیادی از غیرنظامیان را در بر میگرفت.»
کارخانه ترور جمعی: منابع آشنا با نحوه ادغام سیستمهای مبتنی بر هوش مصنوعی در عملیات ارتش اسرائیل گفتند که چنین ابزارهایی بهطور چشمگیری روند ایجاد هدف را سرعت بخشیدهاند. منبعی که قبلا در «بخش هدف» کار میکرد به +972/Local Call گفت: «ما اهداف را بهطور خودکار آماده و طبق یک چک لیست کار میکنیم. این واقعا مانند یک کارخانه است. ما به سرعت کار میکنیم و زمانی برای کاوش عمیق در هدف وجود ندارد. دیدگاه این است که ما بر اساس تعداد اهدافی که برای اجرا مدیریت میکنیم، قضاوت میشویم.» یک منبع جداگانه به نشریه «+972 Magazine» گفت که «گاسپل» به ارتش اسرائیل اجازه داده تا یک «کارخانه ترور دسته جمعی» راهاندازی کند که در آن «تاکید بر کمیت است نه کیفیت». آنها گفتند که یک چشم انسانی قبل از هر حمله از روی اهداف میگذرد، اما نیازی به صرف زمان زیادی برای آنها نیست! برای کارشناسانی که در زمینه هوش مصنوعی و حقوق بشردوستانه بینالمللی تحقیق میکنند، چنین چیزی نگرانکننده است. ریچارد مویز گفت که هنگام تکیه بر ابزارهایی مانند «گاسپل»، به یک فرمانده فهرستی از اهدافی را که رایانه تولید کرده، تحویل میدهند و آنها لزوما نمیدانند که لیست چگونه ایجاد شده است. خطر اینجاست که وقتی افراد به این سیستمها تکیه میکنند، در یک فرآیند مکانیزه تبدیل به چرخدنده میشوند و به روشی هدفمند توانایی در نظر گرفتن خطر آسیب به غیرنظامیان از دست میرود.
70 درصد تلفات غزه زنان و کودکان هستند: به گفته وزارت بهداشت فلسطین در غزه، 70 درصد تلفات در این باریکه را زنان و کودکان تشکیل میدهند. تحقیقات مشترک نشریه اسرائیلی – فلسطینی «+972 Magazine» و نشریه عبری Local Call بر اساس مکالمه با هفت تن از اعضای فعلی و سابق جامعه اطلاعاتی اسرائیل، علاوه بر شهادتها، دادهها و اسناد فلسطینی از نوار غزه و اظهارات رسمی سخنگوی ارتش و سایر نهادهای اسرائیل نشان داد که «مجوز گسترده ارتش اسرائیل برای بمباران اهداف غیرنظامی و استفاده از سیستم هوش مصنوعی برای تولید اهداف بالقوه بیشتر از هر زمان دیگری، به ماهیت مخرب مراحل اولیه جنگ کنونی اسرائیل در نوار غزه کمک کرده است.» بر اساس این گزارش، بمباران بیرویه «عمدتا با هدف آسیبرساندن به جامعه مدنی فلسطین صورت گرفته است». به گفته یک منبع، هدف از این اقدام ایجاد شوکی است که در میان چیزهای دیگر، به شدت منعکس خواهد شد و غیر نظامیان را به فشار بر حماس سوق میدهد. چندین منبع که به شرط فاشنشدن نام با این دو رسانه صحبت کردند، گفتند که «ارتش اسرائیل پروندههایی درباره اکثر اهداف بالقوه در غزه -از جمله خانهها- دارد که تعداد غیرنظامیانی را که احتمال کشتهشدن آنها در حمله به هدفی خاص در غزه وجود دارد، مشخص میکند».
همه چیز عمدی است: منبع دیگری به این رسانهها گفت که «هیچ چیز تصادفی اتفاق نمیافتد. وقتی دختری 3 ساله در خانهای در غزه کشته میشود، به این دلیل است که یکی در ارتش به این نتیجه رسیده که کشته شدن او مساله مهمی نیست و بهای ضربه به هدف دیگری است. اینها موشکهای تصادفی نیستند. همه چیز عمدی است. ما دقیقا میدانیم که در هر خانه چقدر تلفات جانبی وجود دارد». در این گزارش آمده است: «پنج منبع مختلف تأیید کردند که تعداد غیرنظامیانی که ممکن است در حملات به اقامتگاههای شخصی کشته شوند از قبل برای اطلاعات اسرائیل شناخته شده است و به وضوح در پرونده هدف تحت عنوان «تلفات جانبی» دیده میشود.
به گزارش نشریههای «+972 Magazine» و Local Call، منابع گفتند که مقامات اسرائیلی حملهای را تایید کردند که میدانستند تا صدها غیرنظامی را در تلاش برای ترور فقط یک فرمانده نظامی حماس میکشد. بیش از 120 غیرنظامی در بمباران 31 اکتبر اردوگاه پرجمعیت آوارگان جبالیا با حداقل دو بمب 2000 پوندی (907 کیلوگرمی) کشته شدند. غیرنظامیانی که در غزه در طول 56 روز با بمبها و گلولههای ارتش اسرائیل از بین رفتند تقریبا به اندازه غیرنظامیانی است که در طول حضور 20 ساله ائتلافی به رهبری آمریکا در افغانستان کشته شدند. در طول دو هفته اول حمله اسرائیل، تقریباً تمام بمبهای پرتاب شده بر سر غزه با اوزان 1000 یا 2000 پوندی (453 و 907 کیلوگرمی) ساخت آمریکا بودند.. مقامات نظامی اسرائیل گفتند که ارتش اسرائیل فقط در پنج روز اول جنگ، 6000 بمب به وزن مجموعا 4000 تن روی غزه پرتاب و کل محلهها را ویران کرده است. ارتش اسرائیل خانههای نیروهای حماس و جهاد اسلامی را نیز هدف قرار میدهد، اما فلسطینیهایی که در این گزارش با آنها مصاحبه شد، گفتند برخی از خانوادههای کشتهشده در بمباران اسرائیل هیچ عضوی از این گروهها نداشتند.
**در کتب عا استفاده از هوش مصنوعی واکاوی شده ، فواید و مضرات آنرا برشمردیم**