أخبار عامة - وكالة أنباء المرأة - اخبار الأدب والفن - وكالة أنباء اليسار - وكالة أنباء العلمانية - وكالة أنباء العمال - وكالة أنباء حقوق الإنسان - اخبار الرياضة - اخبار الاقتصاد - اخبار الطب والعلوم
إذا لديكم مشاكل تقنية في تصفح الحوار المتمدن نرجو النقر هنا لاستخدام الموقع البديل

الصفحة الرئيسية - مواضيع وابحاث سياسية - رياض الشرايطي - الحرب كحقل تجارب للذكاء الاصطناعي: كيف أصبحت غزة مختبرا للمراقبة والاستهداف.















المزيد.....



الحرب كحقل تجارب للذكاء الاصطناعي: كيف أصبحت غزة مختبرا للمراقبة والاستهداف.


رياض الشرايطي

الحوار المتمدن-العدد: 8443 - 2025 / 8 / 23 - 02:52
المحور: مواضيع وابحاث سياسية
    


حين يتفوّق الحساب على الضمير، ويصير الدم مجرّد "خوارزمية" :
في عصر التحوّلات التكنولوجية المتسارعة، حين أصبحت الخوارزميات تتسلّل إلى أدق تفاصيل حياتنا، من طريقة اختيارنا للأغاني، إلى تقييمنا للمنتجات، وقرارات الشراء، كان من البديهي أن تجد هذه المنظومات البرمجية طريقها إلى قلب الآلة العسكرية، لا بوصفها أداة مساعدة فحسب، بل بوصفها عقلا موجّها. ما لم يكن بديهيا ، بل صادما ، هو أن تتحوّل الحروب إلى حقول تجريب مكشوفة لأنظمة الذكاء الاصطناعي، تُختبر فيها أدوات القتل لا في مختبرات مغلقة بل على أجساد بشرية، وعلى رؤوس أطفال نائمين في بيوتهم.
غزة، هذه البقعة الصغيرة المحاصرة منذ أكثر من 17 عاما، لم تعد مجرد ساحة للصراع العسكري أو السياسي، بل صارت مختبرا مفتوحا لممارسات جديدة من العنف المؤتمت، حيث تتحوّل الأرواح البشرية إلى أهداف محسوبة، يقاس خطرها عبر برامج، وتصنّف حسب درجات احتمالية تهديدها. ومن هنا تبدأ الكارثة الأخلاقية: حين تسند مهمة تحديد من يعيش ومن يموت إلى خوارزمية مصممة وفق منطق إحصائي، مجرد من الوجدان، منفصل عن التجربة الإنسانية. وكما يحذّر المفكر الألماني يورغن هابرماس: "حين يُختزل الإنسان إلى بيانات، تُفتح بوابات الجحيم بأدوات حديثة، لكنها تحمل روح القرون الوسطى في بطشها".
ليس جديدا أن تُستخدم التكنولوجيا في الحروب، لكن الجديد المفزع هو هذا المستوى من التداخل بين صناعة الموت وصناعة البيانات. أصبح القتل مبرمجا، آليا، وذو واجهة استخدام مريحة وسريعة. لم يعد الضابط يضرب إصبعه على الطاولة محاولا التفكير، بل ينقر على شاشة لمس ليحصل على قائمة "أهداف مقترحة". في هذه اللحظة، يغيب الإنسان من المشهد، وتحلّ مكانه معادلة. وما هو أبشع، أن هذا القتل لم يعد مسؤولية الجندي، بل شراكة ثلاثية: بين الجيش، والخوارزمية، والشركة التي صمّمتها. وهكذا، يولد واقع جديد: الحروب بوصفها مشاريع تجارية. مشاريع تُصمّم وتُسوّق وتُعدّل كما يُعدّل تطبيق في متجر غوغل بلاي، وتُطلق تحديثاتها على جثث الأبرياء.

01.الذكاء الاصطناعي في قلب آلة الحرب: من الحساب إلى الدم .

ما يحدث اليوم في غزة هو انعطافة مفصلية في تاريخ الحروب، لا تقلّ خطورة عمّا أحدثته الطائرات الحربية في الحرب العالمية الثانية، أو السلاح النووي في هيروشيما. فهنا، وللمرة الأولى، يصبح الذكاء الاصطناعي نفسه هو من يصوغ خريطة الاستهداف، بل ويوصي بتنفيذ الهجوم دون الحاجة إلى موافقة بشرية نهائية. ليست المسألة في أن الحرب أصبحت "ذكية" كما يُسوّق لذلك، بل في أن القرار بالقتل صار يعتمد على نماذج رياضية مبرمجة وفق تصوّرات صانعيها، غير القابلة دائمًا للتدقيق أو المساءلة.
في هذا السياق، برز نظام "هبسورا" (Habsora) بوصفه العقل الحسابي الذي يقدّم للجيش الصهيوني ما يُسمّى بـ"قائمة الأهداف المقترحة". هذا النظام، الذي سُمِّي بالعبرية بـ"الإنجيل"، لا يحمل أيّ رسالة خلاص، بل هو إنجيل من نوع آخر: قائمة موت يومية، تتضمن أسماء، مواقع، وتوصيات بالقصف. يقوم النظام بتحليل سلاسل بيانات ضخمة: الاتصالات، تحركات الهواتف، الحسابات البنكية، الصور الحرارية، نشاطات على مواقع التواصل الاجتماعي، وحتى العلاقات الاجتماعية. بعد ذلك، يصدر توصيته: فلان يُشتبه به، يُنصح بقصف منزله. إن الأمر لا يختلف كثيرا، من الناحية البرمجية، عن أن توصي لك نتفليكس بفيلم بناء على ما شاهدته سابقا.
في رواية شهيرة للكاتب البريطاني جورج أورويل "1984"، كانت السلطة تراقب كل شيء، لكنها لم تكن قادرة على التصرف بالسرعة التي يتيحها الذكاء الاصطناعي اليوم. فبينما كانت الرقابة حينها أداة ضبط اجتماعي، أصبحت اليوم أداة قتل مباشر. من لحظة الاشتباه إلى لحظة القصف، لا تمرّ إلا دقائق معدودة. ولا حاجة لبرهان ملموس، إذ يكفي أن تصنّف الخوارزمية الهدف بناء على معامل الاحتمال، أي أنه "ربما" يكون عنصرا في المقاومة.
الخطير أن هذه البرمجيات قد تُستخدم لاحقا في أماكن أخرى، تُعدّ غزة فيها مجرد منصة اختبار. فكلما أُطلقت قذيفة، تم تسجيل البيانات، تقييم الأداء، تعديل النموذج، وإصدار نسخة أكثر دقة، وهكذا دواليك. الحروب المستقبلية لن تبدأ بإعلان رسمي، بل بخوارزمية تتعرّف على نمط سلوك مشبوه، وتوصي بالضرب. وكما قال أحد المحللين العسكريين في صحيفة "فايننشال تايمز": "لم نعد بحاجة إلى جنرال يصرخ من خيمته، بل إلى مهندس برمجيات يعدّل السطر الأخير في كود القتل".

02.الشركات الكبرى على مائدة الدم: من وادي السيليكون إلى الأنقاض .

ما كان يُعتقد يوما أن وادي السيليكون، حيث تُولد تطبيقات التسلية والترفيه، قد يتحول إلى مصدر لأسلحة دمار ناعم لكنها فعّالة، صار اليوم واقعا. حين تورّطت شركات مثل مايكروسوفت، OpenAI، وأمازون في تقديم خدمات سحابية وبرمجيات ذكاء اصطناعي إلى جيش الاحتلال، فإن الأمر لم يعد مجرّد علاقة تعاقدية بين دولة وشركة، بل أصبح شكلا من أشكال التواطؤ في الجرائم الدولية. هذا التواطؤ يتخفى وراء لغة تقنية باردة: تخزين سحابي، تحسين الأداء، أمن سيبراني، دعم تحليلي... لكنها كلمات تُترجم في الواقع إلى تسهيل القتل.
شركة مايكروسوفت، التي طالما تباهت بكونها "قوة من أجل الخير"، وجدت نفسها في عين العاصفة حين اقتحمت موظفة لديها احتفال الذكرى الخمسين لتأسيس الشركة، وصرخت أمام جمهور من كبار المدراء: "أيديكم ملوثة بدماء خمسين ألف إنسان!". لم تكن تلك مجرد لحظة احتجاج عاطفية، بل كانت تعبيرا عن وعي يتشكّل داخل الشركات نفسها، من موظفين باتوا يدركون أنهم لا يعملون فقط على تطوير واجهات استخدام، بل على آليات قتل.
الإشكال لا يكمن فقط في استخدام التقنيات، بل في تطويرها أثناء الحرب. فكل عملية قصف ناجحة ، أو فاشلة ، تُغذّي الخوارزميات بمعطيات جديدة. كل شهيد يسقط، هو رقم يدخل في قاعدة بيانات. كل طفل يُقتل، هو جزء من معادلة تُعدّل لاحقا. ومن هنا، تصبح الحرب شبيهة بمنصة تجريب (Beta Testing)، حيث تُختبر الفرضيات، تُجسّد النتائج، ثم تُسوّق النسخة المقبلة. فكما تُطلق الشركات تحديثات لأنظمتها، تُطلق كذلك جيوشها نماذجها المحدّثة من أدوات القتل، دون أن يُسأل أحد عن ثمن هذا التطوير.
كتب الصحفي الأمريكي كريس هيدجز، الذي غطّى حروبا متعددة: "الحرب ليست فقط ما يحدث في الميدان، بل أيضا ما يُصنع في المكاتب. حيث يحدّد المصممون شكل الألم، ولون الدمار، ونوع الصرخات التي ستملأ الهواء". ومايكروسوفت ليست وحيدة، فشركات أخرى مثل أمازون (AWS) وغوغل دخلت مجال العقود العسكرية. لكن الخطورة الأكبر هي في دخول شركات الذكاء الاصطناعي الناشئة، التي ترى في الحروب فرصة استثمار واختبار.
لم تعد الحرب قرارا سياديا فقط، بل مشروعا رقميا، يُصمّم في وادي السيليكون ويُطبّق في مخيمات اللاجئين. وغزة، للأسف، ليست سوى بداية الحكاية.

3. من المراقبة إلى التعرّف البيومتري: كيف يُحوَّل السكان إلى بيانات؟.

لم تعد الحرب الحديثة تكتفي بالبنادق والدبابات والطائرات، بل باتت تُخاض بأجهزة استشعار وأقمار صناعية وطائرات بدون طيار (درون) مزوّدة بكاميرات ذكية وخوارزميات تعلّم آلي، ترصد وتُحلّل وتُقرّر. في هذا السياق، تحوّلت غزة إلى فضاء مكثف للتجريب، ليس فقط في الأسلحة الفيزيائية، بل في أكثر الأبعاد رعبا: تحويل الإنسان إلى خوارزمية، إلى بصمة رقمية، إلى هدف مُجرّد من كل معنى إنساني.
بات الفلسطيني مراقَبا لا فقط في تحركاته بل في وجهه، عينيه، مشيته، صوته، وحتى طريقته في استخدام هاتفه. لقد تحولت كل خاصية بيولوجية إلى "بيانات قابلة للمعالجة". كما تقول الباحثة "شلوميت كوهين" من معهد الأمن القومي الإسرائيلي:
"السكان هم الخوارزمية التي ندرّب عليها نماذجنا... غزة ليست فقط ساحة معركة، بل مختبر حيّ مفتوح."
في تقرير مطوّل نشرته صحيفة واشنطن بوست سنة 2024، أكّد باحثون استخباراتيون أن الجيش الإسرائيلي يستخدم أدوات تعرّف بيومتري تشتغل بتقنيات الذكاء الاصطناعي لتحديد الأفراد المطلوبين من خلال تحليل وجوههم عبر الكاميرات المثبتة على الدرون والطائرات. هذه الأنظمة تُدرب وتُختبر ميدانيا في غزة، حيث لا توجد عوائق قانونية حقيقية ولا مقاومة إعلامية عالمية كافية.
ولأن الإنسان هناك لا يُعامَل ككائن حيّ بل كهدف رقمي، فإن "كل وجه فلسطيني هو فرصة لتحسين النموذج"، بحسب تعبير أحد مهندسي "الوحدة 8200"، الذراع التكنولوجي للجيش الإسرائيلي.
بل وصل الأمر إلى أبعد من ذلك: رُصد استخدام تكنولوجيا تُدعى "Blue Wolf"، وهو نظام بيومتري يستخدم الهواتف الذكية لالتقاط صور سكان غزة وتخزينها في قاعدة بيانات مرتبطة بمعلومات استخباراتية، تُستخدم لاحقا لتقييم "درجة التهديد". كل وجه يُخزّن، كل طفل يُراقَب، كل امرأة تُقيَّم وفق معايير الخوارزميات. وهكذا، تُعاد صياغة الإنسان كبيانات، لتُفكّك وجوده، وتُسلّع حياته، وتحوّله إلى مدخل إحصائي قابل للتصفية أو التدمير.
إنه عالم "ما بعد الأخلاقي"، حيث تتحول أدوات الأمن إلى أدوات لـ"تحسين الأداء" و"تقليل الخطأ في التصويب"، بحسب توصيف خبير الذكاء الاصطناعي "بن شتيرن" في ندوة دفاعية عُقدت في تل أبيب:
"نريد حربا نظيفة، بقرارات أقل خطأ، وقتل أكثر دقّة... والذكاء الاصطناعي هو المفتاح."
لكن السؤال المفزع هو: من يقرر من هو "الخطأ"؟ ومن هو "الصحيح"؟ هل هو الخوارزمية؟ أم مَن كتبها؟ أم مَن اختبرها في أجساد الفلسطينيين؟.

4. الذكاء الاصطناعي في قلب التصفية: من الهدف المشتبه إلى الاستهداف الفوري.

للمرّة الأولى في التاريخ العسكري الحديث، أصبح بإمكان الآلة أن تُصدر "أمر قتل". لم يعد القرار بيد الضابط فقط، بل صار يُستشار فيه النظام الخوارزمي، وتُوصى فيه الماكينة، ويُنفّذ فيه المقترح الذكيّ الذي يُنتج أهدافا بشرية في غضون ثوان. في قلب كل هذا، نجد النظام المعروف باسم "هَيْوِنغ برديتور" (حارس الحقول)، وهو أحد نماذج الاستهداف المبنية على الذكاء الاصطناعي، وقد تم استخدامه بكثافة في غزة خلال حرب 2021 و 2023 وما تلاها.
في تحقيق نشرته صحيفة هآرتس سنة 2023، كشف ضباط سابقون عن نظام يُدعى "الحاسوب الأحمر"، يحدد "الهدف القابل للتصفية" دون العودة الفعلية إلى تحليل بشري دقيق، ويعتمد على مؤشرات رقمية مثل: عدد المكالمات، موقع الهاتف، نوع الحساب البنكي، الاتصالات السابقة، السلوك على مواقع التواصل، وحتى تاريخ استلام المساعدات الغذائية. كل هذه البيانات تدخل في منظومة تقييم سريعة تؤدي إلى قرار: تصفية أو لا.
قال أحد الجنود عند سؤاله في تحقيق انجزته قناة fox news :
"في بعض الحالات، نُنهي العملية خلال ثلاثين ثانية من تحديد الهدف... لا نملك الوقت للتثبت يدويا... نثق في الخوارزمية."
هكذا، في عالم غزة، تتخذ الخوارزميات شكل قضاة إعدام رقميين. فكما كان الجنرال في العصور القديمة يشير بيده نحو المحكوم، تشير اليوم الخوارزمية إلى الشاشة: هذا يجب أن يُقتل.
كما كتب الفيلسوف "زيغمونت باومان":
"كلما زاد اعتمادنا على الآلة في تقرير مصير البشر، كلما ابتعدنا عن أن نكون بشرا."
ومع التراكم الكمي لهذه العمليات، يصبح الخطأ مقدّسا والخسائر "قابلة للامتصاص". تم استهداف أسر كاملة بناء على تحليل صوتي خاطئ، أو بيانات محمولة خاطئة، أو سلوك رقمي التُقط من الجيران. في تقرير لمنظمة "هيومن رايتس ووتش" صدر سنة 2024، تم توثيق 17 حادثة قُتل فيها مدنيون بسبب قرارات استهداف آلية لم تُراجع من إنسان واحد.
وهنا لا بد من التذكير بقول "هانا آرندت" عن "تفاهة الشر":
"الشر الحقيقي ليس ناتجا عن نية، بل عن غياب الحكم الأخلاقي... عندما يُحوّل البشر إلى أدوات، تصبح الجريمة وظيفة."
ما يحدث في غزة هو ترجمة حرفية لهذه الفكرة: الحرب كوظيفة تكنولوجية، والموت كتحليل إحصائي، والطفل كاحتمال خطر، والبيت كمنصة لإطلاق البيانات.

5. من لحظة القرار إلى لحظة البرمجة: زمن القتل في عصر الخوارزميات .

عندما نفكر في القرار الحربي، نتصور عادة رجلا عسكريا يأمر بالقصف أو بإطلاق النار، وفي خلفية ذهنية لدينا حسّ بالإرادة الإنسانية، بالمسؤولية الأخلاقية، وحتى بالخطأ المحتمل. لكن في عالم اليوم، في ساحة معركة غزة المحاصرة، تآكل ذلك المفهوم إلى حدٍّ لم يعهده التاريخ من قبل، إذ صار القرار لا يتخذ على يد بشر بل على يد خوارزميات. "لحظة القرار" التي تحدّد مصير إنسان باتت "لحظة برمجة" ، إعادة صياغة مفاهيم القضاء والإعدام في عالم تسيطر عليه الحسابات الرقمية.
لقد انتقلت الحرب من النطاق البشري إلى نطاق التحكم الرقمي، حيث تُبرمج آلة للقتل عبر قواعد بيانات تُحدّد “أهدافا” حسب معايير تكنولوجية صارمة، لا مكان فيها للرحمة أو الخطأ. هنا، لا يُطرح سؤال "هل نقتل؟" بل "متى ومَن نقتل؟" بموجب معادلات رياضية. فخوارزمية حبسورا، على سبيل المثال، لا تنتظر قرار ضابط، بل تعالج ملايين نقاط البيانات عبر تحليل تفاعلي مع الوقت، لتُصدر توصيات عن "من هو الهدف"، و"أيّ اللحظات مناسبة للقصف"، بناء على حسابات زمنية تفصيلية تُعيد صياغة الزمن الحربي كعملية حسابية فائقة السرعة.
لقد وصف الفيلسوف الفرنسي بول فيريليو تلك الظاهرة بأنها "تسرّع السيطرة"، حيث يصبح التحكم في الزمن هو القدرة القصوى على السيطرة على الواقع. في سياق غزة، يتحوّل الزمن إلى سلاح؛ حيث تقلص لحظة القرار، لتصبح ضغطة زر تحدد مصير مئات الأبرياء في أجزاء من الثانية. تذهب الخوارزميات إلى أبعد من سرعة القرار البشري، فهي تدرس سلوك العدو المحتمل، تنبّهات مواقع المقاومة، تقلبات الحشود في الأسواق، تقارير الاستطلاع الفوريّة، وحتى الأصوات المُلتقطة، لتقرر "بأنف ذكي" متقدّم متى يجب القصف، وأين يكون التأثير الأعظم.
لا نبالغ إن قلنا إننا أمام "سياسة اللحظة الرقمية"، حيث يتم اختزال الزمن الأخلاقي والتأملي إلى أرقام وشفرات، ويحكم الأمر المبرمج، لا المشاعر، ولا القيم الإنسانية. وهو تحول يخلق مناخا حربيا جديدا، لا مجال فيه للمحاكمة، أو للمساءلة، أو حتى للخطأ. فالآلة التي تقرر، بحسب الأمين العام للأمم المتحدة أنطونيو غوتيريش، "تعرّض المدنيين للخطر وتطمس المساءلة".
إنها حرب من دون وجوه، من دون شهود، من دون ضمائر. في هذا السياق، أُطلق على تلك الطائرات التي تقرر القتل بدون الحاجة لمصادقة بشرية تسمية "القاتل الآلي"، وهو ما يثير فضائح أخلاقية وقانونية ضخمة على الصعيد الدولي، إذ تعني هذه التقنية أن القتل يصبح فعلا ميكانيكيا بحتا، لا مسؤولية فيها.
لكن التسارع في اتخاذ القرار لا يعني بالضرورة دقّة في الأداء. فالخوارزميات تستند إلى بيانات، والبيانات ليست دائما دقيقة. هي قد تكون قديمة، أو خاطئة، أو مجتزأة. وهذا ما حدث كثيرا في غزّة، حيث أفضى الاستناد إلى الذكاء الاصطناعي إلى استهداف عائلات بأكملها بناء على أخطاء في المعطيات. ضغطة زر خاطئة تعني موتا جماعيا.
وبالرغم من ذلك، يصرّ الجيش الصهيوني، وشركات التكنولوجيا المرتبطة به، على الدفاع عن هذه الآليات، باعتبارها "ثورة في الحروب الحديثة"، وتعبيرا عن الحاجة إلى تقليل الخسائر البشرية بين قواتهم. لكن، وفي الوقت ذاته، فإن هذه الثورة تعني تصعيدا جديدا في الإرهاب المنظّم، حيث تتحول الكتل السكنية إلى أهداف مشروعة، والأطفال والنساء إلى أرقام في معادلات القتل.
في ضوء ذلك، يجب أن نتذكّر ما قاله مفكر الأخلاق الألماني هانس يونا:
"الفشل في التفكير الأخلاقي لا يعني فقط ارتكاب الشر، بل إنتاج شرّ غير مرئي، حيث يُلغى صوت الضحية وكرامتها".

6. خوارزميات القتل التعلّمي: كيف يتعلّم الذكاء الاصطناعي من جثث الفلسطينيين؟.

عندما نسمع كلمة "تعلم عميق" أو Deep Learning في سياق الذكاء الاصطناعي، نفكر عادة في تطبيقات طبية أو صناعية تساعد في تحسين جودة حياة الإنسان. لكن في غزة، هذا النوع من التعلّم الآلي يتحول إلى آلة حرب تتغذى على دماء المدنيين. فالبيانات التي تُجمع من كل غارة وكل تفجير تُعاد معالجتها لتطوير أنظمة استهداف أكثر ذكاء، وأكثر قسوة، وأسرع استجابة.
في الحقيقة، يمكن القول إن غزة هي مختبر حي لاختبار خوارزميات القتل، حيث تُختبر استراتيجيات وأدوات الحرب الذكية في ظروف حقيقية، غير مجرّدة، مع عواقب إنسانية كارثية. وقد كشف تحقيق استقصائي لمجلة Nature عام 2024 أن بعض الأنظمة القائمة على الذكاء الاصطناعي تُعيد تحليل النتائج بشكل مستمر، تعدّل معايير الاستهداف بناء على نوع الضرر الذي أُحدث، استجابة سريعة لبيانات حقلية تُرسَل من الميدان في الوقت الفعلي.
هذا التعلم التلقائي يغيّر قواعد اللعبة، إذ لم تعد الخوارزمية مجرّد أداة، بل فاعل نشط يتطوّر عبر تجارب ميدانية دامية. كل ضحية في غزة هي "درس جديد"، وكل تدمير يُضاف إلى قاعدة بيانات التعلم العميق التي تخدم الحروب المقبلة.
وقد أكّد تقرير هيومن رايتس ووتش أن منظمات حقوق الإنسان وثّقت استخدام الكيان الصهيوني لتقنيات ذكاء اصطناعي تساعد في تحديد الأهداف، لكنها رصدت أن هذه الأنظمة تزيد من خطر وقوع ضحايا مدنيين بسبب الاعتماد الكبير على الخوارزميات التي قد تُفسّر البيانات بطريقة خاطئة أو تجهل التعقيدات الميدانية.
هنا يأتي سؤال أخلاقي عميق: هل تُصبح جثث البشر في غزة، بألمها وتاريخها وحكاياتها، مجرد بيانات لتطوير أجهزة "أنظمة قتل أفضل"؟ هل صار دم الإنسان "مادة خام" تُستخدم في "مصانع الحروب"؟ الجواب هو نعم، وهذا ما يثير صدًى أخلاقيا وقانونيا عميقا، ينعكس على مفهوم الإنسانية ذاته.
إن هذه الحالة هي تجسيد لما أشار إليه المفكر الفرنسي جاك دريدا في مفهومه عن "التقنية القاتلة"، حيث تتحول التكنولوجيا إلى أداة إلغاء إنسانية، وتتحكم في حياة وموت الإنسان دون عناء من ضمير.
إنّ الذكاء الاصطناعي في غزة ليس فقط أداة عسكرية، بل نموذجا جديدا من الاستعمار الرقمي، حيث يتم الاستيلاء على بيانات الإنسان نفسه، وتحويلها إلى أدوات قمع وإبادة. وهو ما يؤكد التحذير الذي أطلقه الباحث "إيفان كريغ" من مركز الأبحاث التقنية:
"عندما تتحول البيانات إلى سلاح، يتحول الإنسان إلى مجرد هدف قابل للتحليل والاختزال، ويصبح الموت مسألة تقنية باردة".
وهكذا، تفتح غزة الباب على مصراعيه لعصر جديد من الحروب الرقمية، حيث تصبح القتل والتدمير مدرّبين ومتطورين باستمرار، في مختبر مفتوح، يغمره الألم والدماء، لكنه يصنع لأطراف الحرب ميزة لا مثيل لها: القدرة على القتل بمنتهى الدقة والسرعة، بدون أن يشعر القاتل.

7. شركات التكنولوجيا: تحالف الدم والربح بين الرأسمال والحروب الرقمية.

في قلب كل حرب حديثة، وعلى وجه الخصوص في حرب غزة، يقبعُ عنصر حاسم لم يعد يقتصر على الميدان العسكري التقليدي، بل هو جزء من بنية الحروب نفسها، وهو تحالف الرأسمال مع الحروب الرقمية. شركات التكنولوجيا الكبرى، التي بدأت رحلتها في عالم البرمجيات والتقنيات المدنية، قد تحوّلت تدريجيا إلى فاعل رئيسي في تطوير الأدوات الحربية التي تعتمد على الذكاء الاصطناعي. مايكروسوفت، أوبن إيه آي، جوجل، أمازون وغيرها من الشركات التي تُصنّف كعمالقة التقنية الرقمية، لا تنفصل عن صناعة الحروب الرقمية التي يُجرب فيها الذكاء الاصطناعي على أجساد البشر، خصوصا في ساحات مثل غزة.
لقد غدت الحرب المختبر الأكبر لتطوير منتجات الذكاء الاصطناعي التي تصنعها هذه الشركات. فالدم الفلسطيني، كما تؤكد تقارير متعددة، يُستخدم كبيانات تدريب لتطوير أنظمة المراقبة والاستهداف. في أفريل 2024، عندما تحدّت موظفة في شركة مايكروسوفت إدارة الشركة على صمتها وتواطئها في توريد تقنيات الذكاء الاصطناعي للجيش الصهيوني، لم تكن هذه المواجهة مجرد صدفة، بل انعكاس لأزمة أخلاقية عميقة يعيشها الداخل التكنولوجي ذاته، حيث يُضغط على العاملين لتبرير دور شركاتهم في دعم آلة القتل.
تشير تقارير الغارديان وواشنطن بوست إلى أن العقد العسكري بين مايكروسوفت ووزارة الدفاع الصهيونية بلغ 133 مليون دولار في 2021، وشهد زيادة كبيرة في استخدام خدمات الحوسبة السحابية لهذه الشركات منذ بدء الحرب في أكتوبر 2023. هذا التعاون لم يقتصر على تقديم خدمات تقليدية بل تضمن تطوير خوارزميات ذكاء اصطناعي متقدمة تستخدم في تحديد الأهداف، تتبع تحركات المدنيين، والتنبؤ بسلوك المقاومة.
إن هذا التواطؤ بين "عقل التكنولوجيا" والرأسمال العسكري هو نموذج مثير للقلق، حيث تحولت الربحية إلى معيار لتقييم مدى فاعلية الأسلحة الرقمية، على حساب الأرواح البشرية. وفقا للباحث الأمريكي شادي زيدان:
"صناعة الذكاء الاصطناعي في الحروب ليست فقط صناعة أسلحة، بل صناعة نظام عالمي يحوّل الإنسان إلى رقم يُنتج أرباحا، والحرب إلى تسويق مستمر للتكنولوجيا القاتلة."
هذا النظام المتشابك من الشركات والحكومات يخلق دوامة من التنافس والابتكار في مجال القتل الرقمي. الأسواق العالمية اليوم باتت تتنافس على بيع "حلول ذكية للحروب"، والتي تقدم وعودا بقتل أكثر دقة وأقل كلفة بشرية للجنود، لكن بثمن بشري كارثي للمدنيين. من هنا تنطلق أسواق السلاح الجديدة التي يهيمن عليها الذكاء الاصطناعي، حيث يتنافس العمالقة التكنولوجيون على تطوير أنظمة قادرة على مراقبة كل زاوية، استهداف كل هدف، وتحليل كل حركة في الوقت الفعلي.
وليس بعيدا، في قلب هذا المشهد، تقف شركات أخرى مثل "أوبن إيه آي"، التي زاد دعمها للجيش الصهيوني في الحرب الأخيرة بمعدلات خيالية، حيث وفرت أنظمة متطورة لمعالجة البيانات وتحليلها التي تستخدم في رسم خرائط للأهداف والتخطيط العسكري الذكي. لكن ما يثير القلق هو غياب الشفافية الكاملة حول مدى استخدام هذه التقنيات، وهو ما يؤجج المخاوف بشأن انتهاكات حقوق الإنسان.
وهنا تبرز أزمة أخلاقية كبرى: كيف يمكن لشركات تطور تقنيات تُستعمل لقتل مدنيين أن تتبرأ من مسؤولياتها؟ وكيف يُمكن للنظام الدولي أن يسمح بذلك؟ يكتب المفكر الألماني هانس يونا:
"إن التكنولوجيا لا تأتي محايدة، بل هي تعبير عن الأيديولوجيات والقوى التي تحكمها، وعندما تتحول إلى أداة قتل، تتحول البشرية إلى أرقام في معادلة الرأسمال الحربي."
هذه الأزمة تمس جوهر الإنسانية وتعيد طرح أسئلة حول دور التكنولوجيا في العنف، والحدود الأخلاقية لما يُمكن أن يُبرمج ويُستخدم. وفي ظل استمرار هذا التحالف بين شركات التكنولوجيا والأنظمة العسكرية، فإن مستقبل الحروب يُخيم عليه ظلال قاتمة من النزاعات الرقمية التي تلتهم البشر تحت شعار "الكفاءة والدقة".

8. الهوة الرقمية والتفاوت العسكري: كيف يغيّر الذكاء الاصطناعي موازين القوى العالمية؟.

لا تتوقف الأزمة عند حدود استخدام الذكاء الاصطناعي في الحروب، بل تمتد لتشكيل فجوة تقنية وعسكرية هائلة بين الدول. فجوة أصبحت اليوم من أبرز معالم النظام الدولي، حيث تقف الدول المتقدمة تكنولوجيا، وعلى رأسها الولايات المتحدة، الصين، و الكيان الصهيوني، في قمة هرم القوة بفضل سيطرتها على تقنيات الذكاء الاصطناعي المتطورة، في حين تغرق الدول العربية والنامية في تخلف تقني عميق يُضعف قدرتها على الدفاع عن نفسها أو حتى فهم تطورات ساحات الصراع.
هذه الهوة الرقمية ليست مجرد فجوة تكنولوجية، بل هي فجوة استراتيجية وعسكرية تعيد رسم خريطة القوة الدولية. تقنيات الذكاء الاصطناعي المتقدمة تمكن الجيوش التي تمتلكها من الحصول على معلومات استخباراتية دقيقة في الوقت الحقيقي، تخطيط عمليات عسكرية متقنة، وتحليل بيانات متشعبة تعزز من قدرتها على الاستهداف والتنسيق. في حرب غزة الأخيرة، أظهر الجيش الصهيوني كيف زاد استخدامه للذكاء الاصطناعي بأكثر من 200 ضعف منذ أكتوبر 2023، وفقا لتقارير استخباراتية صادرة عن جهات عسكرية.
في المقابل، تواجه الدول العربية، وبالأخص تلك التي تعيش أزمات اقتصادية وسياسية، صعوبات هائلة في تطوير بنيتها الرقمية والعسكرية، حيث تفتقر إلى البنى التحتية الأساسية لتطوير أو اقتناء تقنيات الذكاء الاصطناعي العسكرية. وهذا يقود إلى تزايد اعتمادها على الأسلحة التقليدية والمساعدات الخارجية، مما يزيد من هشاشتها في مواجهة أعداء يملكون أحدث تقنيات المراقبة والاستهداف.
الواقع الجديد يحول "الحرب" إلى "حرب بيانات"، حيث تكون المعلومات والتقنيات المرتبطة بها هي العنصر الحاسم في الحسم العسكري. هذا ما يُسميه الباحث الفلسطيني مروان كمال بـ"الحصار الرقمي" الذي يعاني منه الفلسطينيون في غزة، حيث:
"لا يُحاصر الإنسان فقط من خلال الجدران والأسلاك، بل يُحاصر عبر السيطرة على المعلومات، واحتكار التكنولوجيا التي تحكم حياته وموته."
إن هذا التفاوت ليس فقط بين الدول، بل داخل المجتمعات نفسها، حيث يُظهر فجوة بين القوى التي تملك أدوات الذكاء الاصطناعي المتطورة، والقوى التي تظل عاجزة أمام هذه الأدوات، مما يؤدي إلى إعادة إنتاج الهياكل الاستعمارية القديمة بواجهات رقمية حديثة.
وقد خلص تقرير لمؤسسة "راند" الأمريكية عام 2024 إلى أن:
"الهيمنة على الذكاء الاصطناعي أصبحت عاملا حاسما في الأمن القومي، ومن يسيطر على هذه التكنولوجيا يسيطر على مستقبل الصراعات."
هذا الواقع يرسم ملامح حقبة جديدة من النزاعات، حيث لم يعد التفوق العسكري مرهونا فقط بالقوة النارية أو العدد، بل بقدرة الدول على التسلح بالبيانات وتحليلها في الزمن الحقيقي. ومع استمرار تفوق القوى الكبرى في هذا المجال، يزداد الشعور بالعجز لدى الكثير من الدول التي ترى شعوبها تُجرب فيها تكنولوجيا القتل الحديثة دون أي قدرة على مواجهتها.
تتحول ساحة الحروب، كما هي غزة اليوم، إلى مختبرات مفتوحة لاختبار أدوات القتل الذكية، في حين يظل الضحايا هم المدنيون العاديون، الذين يُختزلون إلى بيانات، يُقصفون بقرارات آلية، ويُمحى وجودهم تحت وابل من التقنيات التي لم تُصمَّم للإنسانية، بل لتدميرها.

9. أثر الذكاء الاصطناعي على النزاعات الإقليمية: فلسطين كمسرح لصراعات الجيوش الرقمية.

إن الاستخدام المتزايد لتقنيات الذكاء الاصطناعي في الصراعات الإقليمية، وخاصة في حالات النزاع كحرب غزة، يشكل تحولا جذريا في مفهوم الحرب ذاته، ويعيد تشكيل ملامحها إلى ما يشبه "الحروب الذكية" التي تعتمد على السرعة الفائقة، والتحليل الدقيق، والتخطيط المسبق المبني على البيانات الضخمة. القطاع الفلسطيني، الذي لطالما كان مسرحا لصراع مادي وسياسي بين أطراف متعددة، تحول اليوم إلى "مختبر حي" للتكنولوجيات الجديدة، حيث يتم اختبار كفاءة أدوات الاستهداف الذكية، والتقنيات التي تعتمد على الذكاء الاصطناعي في المراقبة والتتبع.
هذا الوضع يكشف حقيقة مُرّة؛ فالمدنيون في غزة لا يعانون فقط من الحصار والجوع والدمار، بل أصبحوا أيضا "ضحايا" للتجارب التكنولوجية، حيث يتم توظيفهم كعينات حية لاختبار فعاليات الذكاء الاصطناعي في الحروب. ولعلّ هذا ما يجعل من غزة بمثابة "مختبر عالمي"، حيث تُختبر أدوات جديدة يمكن تصديرها لاحقا إلى أسواق الحروب العالمية.
في هذا السياق، يقول المفكر البريطاني نيك بوستروم في كتابه "الذكاء الاصطناعي: مخاطر وفرص" إن:
"الذكاء الاصطناعي يمتلك القدرة على تحويل أساليب الصراع بشكل جذري، ما يطرح تحديات أخلاقية وسياسية غير مسبوقة، خاصة حين يستخدم في النزاعات المسلحة التي تُحرم فيها غالبية الأطراف من الوسائل اللازمة لمقاومة هذا النوع الجديد من القتل."
بالفعل، فإن الاعتماد على الذكاء الاصطناعي في الحروب لا يقتصر على الجانب العسكري فقط، بل يتعداه إلى تأثيرات سياسية واجتماعية عميقة، حيث يتم تعزيز هيمنة القوى الكبرى على المناطق الضعيفة، وإعادة إنتاج التبعية والاحتلال بوسائل رقمية.
إن تجربة غزة تؤكد أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة في الحروب، بل أصبح سلاحا مركزيا يُغير من قواعد اللعبة، ويعزز الاختلالات الهيكلية في ميزان القوى بين الشعوب والدول.

10. أبعاد أخلاقية وقانونية: متى تتحول الحرب إلى إبادة رقمية؟.

مع توظيف الذكاء الاصطناعي في الحروب، تتصاعد التساؤلات الأخلاقية والقانونية حول استخدام هذه التقنيات، خصوصا في سياق النزاعات التي تشهد تدميرا واسع النطاق كالتي تشهدها غزة. تحذر منظمات حقوق الإنسان ومنظمات القانون الدولي من أن الاستخدام اللامحدود لهذه التقنيات قد يؤدي إلى فقدان السيطرة البشرية على قرارات الحياة والموت، وتحويل الحرب إلى "إبادة رقمية" حيث يتداخل القتل الآلي مع غياب المساءلة.
في تصريح له حول استخدام الكيان الصهيوني للذكاء الاصطناعي في غزة، أكد الأمين العام للأمم المتحدة أنطونيو غوتيريش أن:
"تطبيق أنظمة الذكاء الاصطناعي في الحرب، خاصة حين تكون قرارات القتل آلية، يعرض المدنيين لخطر لا يُحتمل، ويطمس إمكانية المساءلة القانونية، مما قد يؤدي إلى انتهاكات جسيمة لحقوق الإنسان."
وتتفاقم هذه المخاطر عندما تأخذ أنظمة الذكاء الاصطناعي قراراتها تلقائيا دون مراجعة بشرية، حيث تصبح عمليات القتل "ميكانيكية"، تفقد بعدها أبعادها الأخلاقية والقانونية. ما يشبه البرمجة على القتل الممنهج، وهو ما يحذر منه العديد من العلماء والخبراء، ومنهم الفيزيائي الأمريكي نيك بوستروم الذي حذر من أن:
"تحرير القرار الحربي من المسؤولية الإنسانية هو مخاطرة كبرى قد تؤدي إلى كوارث لا يمكن السيطرة عليها."
إن معضلة "المسؤولية" تحوم بشكل قاتم فوق استخدام الذكاء الاصطناعي في الحروب. فمن يتحمل مسؤولية القتل حين يصدر القرار عن خوارزمية؟ هل هي الشركة المطورة، الدولة التي تستخدمه، أم الشخص الذي ضغط على زر التنفيذ؟ يكتب الفيلسوف الألماني هانس يونا:
"المسؤولية لا يمكن أن تُلغى بتقنية، ولا يمكن نقلها إلى آلة؛ فحين تقتل التكنولوجيا، يجب أن تبقى هناك جهة مسؤولة تتحمل تبعات الفعل."
هذه الأسئلة الأخلاقية والقانونية تجعل من الذكاء الاصطناعي في الحروب موضوعا ملحا للمناقشة الدولية، حيث تطالب منظمات الأمم المتحدة ومنظمات حقوق الإنسان بوضع معايير دولية تحكم استخدام هذه التقنيات، لمنع أن تتحول الحروب إلى مساحات للعشوائية الرقمية والقتل غير المسؤول.
وفي هذا السياق، نجد أن غزة ليست فقط ساحة للصراع العسكري، بل أيضا ميدانا للصراع على حقوق الإنسان، حيث تتشابك التكنولوجيا مع السياسة، والدم مع البيانات، في ما يمكن تسميته بـ"الإبادة الرقمية" التي لا تقل فظاعة عن أبشع الحروب التقليدية، لكنها أكثر تعقيدًا وخفاء، إذ تختبئ وراء شاشات وأكواد.

11. توظيف الذكاء الاصطناعي في الحروب: بين التقنية والاستعمار الرقمي.

في عالم يزداد فيه الاعتماد على التكنولوجيا المتقدمة، صار الذكاء الاصطناعي أداة لا غنى عنها في إدارة النزاعات المسلحة، خصوصًا في المناطق التي تشهد توترات مستمرة مثل قطاع غزة. لكن ما يُخفيه هذا الاعتماد هو تحول الحرب نفسها من صراع ميداني إلى استعمار رقمي حيث تُهيمن التكنولوجيا على حياة ومصير البشر بشكل مباشر، وتُستخدم كأداة للقمع والسيطرة على الشعوب.
في هذا السياق، تُستخدم تقنيات الذكاء الاصطناعي في مجالات المراقبة والتجسس والرقابة الشاملة على حياة الفلسطينيين، إذ لم تعد الحرب فقط على الأرض وإنما في فضاءات البيانات التي تُجمع وتُحلل لتصبح معيارا لقياس خطر الأفراد وتصنيفهم كأهداف محتملة. يُجري الذكاء الاصطناعي هنا دور "العدو الخفي" الذي يلاحق الأفراد في كل لحظة، مُحوّلا حياتهم إلى بيانات قابلة للتحليل والاستهداف.
يُبرز المفكر الفرنسي ميشيل فوكو في كتابه "المراقبة والعقاب" أن السلطة الحديثة لم تعد تعتمد فقط على العنف المباشر، بل على المراقبة المستمرة التي تُبنى عليها أنظمة السيطرة. وهذا ما يحصل في غزة اليوم، حيث ينسجم الذكاء الاصطناعي مع أنظمة المراقبة الشاملة، ليخلق ما يمكن وصفه بـ"سجن الرقابة" الذي لا يُرى ولكنّه يقتل.
وتشير تقارير عدة إلى أن استخدام الذكاء الاصطناعي في غزة يتجاوز مجرد تحليل البيانات إلى المساهمة في رسم الخرائط التفصيلية لكل حركة، كل تجمع، وكل نشاط، وهو ما يجعل من كل الفلسطينيين، خصوصا الشباب، عرضة للمراقبة الدائمة والاستهداف المحتمل.
هذا الاستخدام لم يكن ممكنا بدون شراكات عميقة بين الجيوش وشركات التكنولوجيا الكبرى، حيث يتم تطوير البرمجيات الذكية على أساس البيانات الحية من ميادين القتال، وهو ما يجعل غزة مختبرا حيا للاستعمار الرقمي الحديث، الذي يعتمد على استخراج البيانات من الأجساد والذكريات لإنتاج أدوات قمع أكثر دقة.

12. السباق العالمي على تقنيات الذكاء الاصطناعي: حرب النفوذ والسيطرة على المستقبل.

في الوقت الذي يستخدم فيه الكيان الصهيوني الذكاء الاصطناعي لتعزيز تفوقه العسكري، يدور في الكواليس صراع عالمي على ريادة هذه التكنولوجيا التي يُنظر إليها كـ"الوقود الجديد" للحروب المستقبلية. الولايات المتحدة، الصين، والاتحاد الأوروبي يستثمرون مليارات الدولارات في سباق تطوير الذكاء الاصطناعي العسكري، معتبرين أن السيطرة على هذه التقنية تعني السيطرة على موازين القوى الدولية لعقود قادمة.
يؤكد تقرير صادر عن مجلس الأمن القومي الأمريكي في 2024 أن الذكاء الاصطناعي سيصبح العامل الحاسم في الحروب المستقبلية، من خلال تحسين قدرات الاستطلاع، الاستهداف، والتخطيط العملياتي، مؤكدا ضرورة الحفاظ على تفوق تكنولوجي مستدام للحفاظ على الأمن القومي.
في المقابل، تسعى الصين بقوة إلى تعويض الفجوة التكنولوجية مع الولايات المتحدة، من خلال استثمارات ضخمة في تطوير الذكاء الاصطناعي، وكذلك التحكم في مصادر المعادن النادرة التي تدخل في صناعة رقائق الحوسبة المتقدمة، مما يجعل الصراع الاقتصادي والتقني بين القوتين العظميين معركة مفتوحة على كل الجبهات، بما في ذلك الجبهات الرقمية والعسكرية.
في ظل هذه المعركة، تبقى الدول النامية، خصوصا في الشرق الأوسط وشمال أفريقيا، خارج اللعبة، متأخرة من حيث القدرة على تطوير أو امتلاك تقنيات الذكاء الاصطناعي العسكرية. وهو ما يزيد من هشاشتها أمام الحروب الرقمية التي تفرضها القوى الكبرى، ويعزز مكانتها كمسارح لصراعات لا تملك أدوات الدفاع فيها.
يصف هنري كسنجر هذه المرحلة بأنها:
"حقبة جديدة من الحروب، حيث لا تُقاتل الجيوش فقط بأسلحة تقليدية، بل عبر السيطرة على البيانات والذكاء الاصطناعي، وهي المعركة التي ستحسم مصير السيادة الوطنية."
هذا السباق ليس فقط حول السيطرة التقنية، بل حول تحديد شكل النظام الدولي الجديد، حيث ستقرر الدول التي تملك الذكاء الاصطناعي من يحكم المستقبل، ومن يُجبر على الخضوع أو الهزيمة.

13. الذكاء الاصطناعي والهوية الوطنية: كيف يُهدد الاحتلال الرقمي حق الشعوب في تقرير مصيرها؟.

إنّ استخدام تقنيات الذكاء الاصطناعي في الحروب، كما هو الحال في غزة، يتجاوز البعد العسكري الضيق ليصل إلى جوهر مفهوم الهوية الوطنية وحق الشعوب في تقرير مصيرها. ففي سياق الاحتلال الرقمي، لا تتعرض فقط الأراضي والسيادة الجغرافية إلى الانتهاك، بل تتعرض الأنظمة السياسية والاجتماعية لهجوم يستهدف وجود الشعوب نفسه من خلال السيطرة على بياناتهم، مراقبة تحركاتهم، وتصنيفهم إلى فئات مختلفة من المخاطر.
هذا الاستخدام الذكي لأنظمة الذكاء الاصطناعي يعيد إنتاج منظومة هيمنة جديدة، حيث تتحول البيانات الشخصية إلى أدوات قمع وتنميط. فكما تقول الأكاديمية شيري توركل في دراستها عن التكنولوجيا والهوية:
"البيانات ليست فقط حقائق جامدة، بل هي جزء من الهوية الإنسانية التي عندما تُستغل أو تُسلب، يُخسر الإنسان نفسه."
في غزة، أصبحت كاميرات المراقبة، الطائرات المسيّرة، وبرمجيات التتبع بالذكاء الاصطناعي أدوات تُستخدم لخلق صورة رقمية متكاملة عن كل فرد، تحكم بها السلطات الصهيونية قرارات حياتهم وموتهم. وهذا "الاحتلال الرقمي" يوسع من رقعة السيطرة، إذ يفرض سيطرة غير مسبوقة على تحركات السكان، على حقوقهم في الخصوصية، وعلى قدرتهم في مقاومة الاحتلال.
إضافة إلى ذلك، تُسجّل هذه الأنظمة تفاصيل يومية، من الاجتماعات إلى الاتصالات، ومن تحركات المواطنين إلى نشاطاتهم الاقتصادية والاجتماعية، مما يُفضي إلى حالة من الرعب والسيطرة النفسية تؤثر بشكل مباشر على النسيج الاجتماعي الفلسطيني. فالذكاء الاصطناعي لا يُستخدم هنا فقط كأداة حرب مادية، بل كأداة حرب نفسية وثقافية تهدف إلى تدمير روح المقاومة، وتفكيك المجتمعات من الداخل.
هذا ما يصفه الباحث إدوارد سعيد في مفهومه عن الهيمنة الثقافية والسياسية، حيث:
"كل احتلال يحتاج إلى أدوات للتحكم في لاوعي الشعوب، وإعادة تشكيل واقعها عبر السيطرة على السرديات والبيانات التي تحدد هويتها."
وبذلك، يُصبح الذكاء الاصطناعي، لا مجرد تقنية محايدة، بل جزء لا يتجزأ من منظومة احتلال شاملة، تعيد تعريف الصراع على أنه صراع تكنولوجي على روح الإنسان، ووجوده في الزمن الرقمي.

14. تحديات المستقبل: ما بعد الحرب الرقمية وضرورة بناء مقاومة تكنولوجية

مع تعاظم دور الذكاء الاصطناعي في الحروب، تبرز تحديات كبرى أمام الشعوب التي تتحول أراضيها إلى ساحات تجريب لتقنيات القتل الجديدة. ففي ظل استمرار احتكار القوى الكبرى لهذه التكنولوجيا، يبدو أن المستقبل القريب يحمل مخاطر استمرار توسيع الفجوات التقنية، وتحول الحروب إلى صراعات رقمية لا يستطيع الكثير من المقاتلين المدنيين أو حتى الدول الصغيرة مواجهتها.
لهذا، بات من الضروري التفكير في بناء مقاومة تكنولوجية متكاملة، تقوم على تطوير قدرات محلية وعربية في مجال الذكاء الاصطناعي، وتقنيات الحماية السيبرانية، وتقنيات فك التشفير، لضمان وجود أدوات تتيح للمجتمعات المتضررة حماية بياناتها، وتحقيق نوع من التوازن في مواجهة التسلط الرقمي.
لكن بناء هذه المقاومة الرقمية يتطلب استراتيجيات طويلة المدى تشمل التعليم، الاستثمار في البحث العلمي، وتنمية التعاون بين الدول العربية والعالم النامي، لتجاوز التبعية الرقمية التي تحوّل الشعوب إلى فريسة سهلة للهيمنة التكنولوجية.
من ناحية أخرى، يجب على المجتمع الدولي أن يضع أطرا قانونية دولية تحكم استخدام الذكاء الاصطناعي في الحروب، تضمن حماية المدنيين، وتُجبر الدول والشركات على احترام القوانين الإنسانية، وإلا فقد تصبح الحروب القادمة أبشع وأقسى، حيث تدار بمعايير آلية بلا رحمة.
في خضم هذا المشهد، تبدو غزة مثالا مؤلما على الحاجة الملحة لإعادة النظر في دور الذكاء الاصطناعي في الصراعات، وتحويل هذه التقنية من أداة قتل إلى أداة بناء للسلام والعدل، وهو تحدٍ يتطلب إرادة سياسية وشعبية قوية، وجهودا علمية وحضارية متجددة.

15. تحولات طبيعة الحرب: من الحروب التقليدية إلى الحروب الذكية المدعومة بالذكاء الاصطناعي.

لقد شهدت الحروب في العقود الأخيرة تحوّلات عميقة في طبيعتها، لم تعد مقتصرة على الاشتباكات التقليدية بين جيوش مدرّبة أو تبادل إطلاق النار على خطوط الجبهة. بل أصبحت الحروب اليوم تعتمد على أدوات تكنولوجية متقدمة، من بينها الذكاء الاصطناعي الذي يُعيد رسم ملامح الصراع بالكامل. حرب غزة الأخيرة مثّلت نموذجا صارخا لهذه التحولات، حيث لم يعد القتال فقط بين البشر، بل بين شبكات الذكاء الاصطناعي التي تحلل البيانات، تحدد الأهداف، وتدير العمليات بدقة متناهية.
هذا النوع من الحروب يُسمى أحيانا بـ"الحروب الذكية"، وهي التي تعتمد على سرعة اتخاذ القرار، القدرة على التنبؤ، وإدارة الموارد بأعلى كفاءة. يشير الباحث الأمريكي كيث ألكسندر، أحد رواد الأمن السيبراني، إلى أن:
"الذكاء الاصطناعي سيُحدث ثورة في مفهوم السيطرة على ميادين القتال، حيث ستتحول الحروب إلى مسابقات برمجية أكثر من كونها حروبا تقليدية."
غير أن هذا التغير الكبير يحمل معه أبعادا خطيرة، خاصة على مستوى المدنيين، الذين يتحولون إلى أهداف في شبكات معقدة من البيانات، حيث قد تُصدر أنظمة ذكية قرارات استهداف بدون تدخل بشري، ما يضاعف خطر الأخطاء والقتل العشوائي.
من جهة أخرى، تعتمد الحروب الذكية على جمع كم هائل من البيانات الحية، التي تُستخدم لتدريب وتحسين هذه الأنظمة. وهذا يعيدنا إلى أزمة استخدام غزة كميدان اختبار، حيث تُخضع حياة المدنيين اليومية لاختبارات تقنية تخضع لاحقًا للتسويق في أسواق السلاح العالمية.
يكتب المفكر نوام تشومسكي:
"إن دماء الشعوب التي تُستخدم في تجارب التكنولوجيا الحربية تُنتج أرباحا هائلة لصناعة الأسلحة الرقمية، وهي كارثة إنسانية وأخلاقية لا تقل فظاعة عن الحروب التقليدية."
وهكذا، يصبح الصراع مسألة تقنية أكثر من كونه مسألة سياسية أو إنسانية، مما يحول البشر إلى مجرد بيانات في معادلة الحرب.

16. التكنولوجيا والربح الحربي: شراكة الشركات الكبرى مع الحروب المسلحة.

تُعد العلاقة بين شركات التكنولوجيا الكبرى والدول المسلحة اليوم علاقة استراتيجية متبادلة، حيث تعتمد الدول على هذه الشركات لتزويدها بأحدث أنظمة الذكاء الاصطناعي والتقنيات الرقمية، فيما تستفيد الشركات من هذه الشراكة لتطوير منتجاتها واختبارها في ساحات المعارك الحقيقية. حرب غزة تُظهر هذه العلاقة بوضوح شديد.
وفق تقارير منشورة، مثل تلك التي صدرت عن هيومن رايتس ووتش والغارديان، تلعب شركات مثل مايكروسوفت وأوبن إيه آي دورا مركزيا في توفير الدعم التكنولوجي للجيش الصهيوني، من خلال توفير بنى تحتية حوسبية متقدمة، أنظمة استهداف ذكية، وبرمجيات تحليل بيانات متطورة. وهذه ليست حالة فريدة، بل نموذج ينطبق على كثير من دول العالم التي دخلت عصر "الحرب الرقمية".
تصف الكاتبة والناشطة شيري وينغلر هذه العلاقة قائلة:
"إن التعاون بين الشركات التكنولوجية والجيش يُشكّل نظاما جديدا من الحروب الصناعية، حيث يتم استغلال دماء البشر كوقود لتطوير البرمجيات ورفع قيمة الأسهم في بورصات التكنولوجيا."
كما أن هذه الشراكة تطرح أسئلة ملحة عن مدى مسؤولية هذه الشركات أمام المجتمعات الدولية، حيث يُتهم بعضها بتجاوزات أخلاقية تتعلق بتمكين القتل الجماعي، وانتهاك حقوق الإنسان، والالتفاف على القوانين الدولية.
على سبيل المثال، رفع بعض موظفي مايكروسوفت في عام 2024 مظاهرات داخل الشركة احتجاجا على استخدام تقنياتها في دعم العمليات العسكرية الصهيونية، مؤكدين أن:
"تقنيات الذكاء الاصطناعي التي تُطوّر لا ينبغي أن تُستخدم في قتل الأبرياء، ولا أن تُحوّل الشركات إلى تجار حرب يلوثون أيديهم بدماء المدنيين."
هذا يشير إلى وجود أزمة أخلاقية داخل هذه الشركات نفسها، حيث تتصارع أرباح الشركات مع الضمير الإنساني، مما يفتح الباب أمام نقاشات ضرورية حول تنظيم هذه العلاقة، وتحديد حدود استخدام التكنولوجيا في الحروب.
لا بد من إعادة تقييم دور التكنولوجيا في الحروب، بحيث لا تتحول إلى أداة تفوق وقهر مطلقة، بل إلى أداة سلام ودفاع تحفظ حقوق الإنسان وتراعي القوانين الدولية.

17. الاستعمار التكنولوجي: الذكاء الاصطناعي كأداة لإعادة إنتاج الهيمنة .

لا يقتصر الذكاء الاصطناعي في سياق الحروب على كونه أداة عسكرية متقدمة، بل يُمثّل اليوم أحد أهم أدوات الاستعمار الجديد، حيث تُعيد القوى الكبرى إنتاج هيمنتها عبر السيطرة على التكنولوجيا والبيانات. غزة، في هذا الصدد، تمثل نموذجا مصغرا لهذه الظاهرة العالمية، حيث يتم تحويل حياة ملايين الفلسطينيين إلى مادة خام تُستغل في تطوير أنظمة المراقبة والسيطرة الرقمية.
كما يشير الباحث إيمانويل والرشتاين في نظريته عن النظام العالمي، فإن:
"الاستعمار الحديث لا يقوم فقط على احتلال الأرض، بل على احتلال المعرفة والبيانات، والتحكم في البنى التحتية التقنية التي تُحدد شكل العلاقات الاجتماعية والسياسية."
في هذا السياق، يُستخدم الذكاء الاصطناعي ليس فقط لشن هجمات عسكرية، بل لبناء نظام رقابة شامل يحكم كل تفاصيل الحياة اليومية، ويجعل من المقاومة أمرا أكثر صعوبة. هذا الواقع يُنذر بتحول النضال الوطني إلى صراع من نوع جديد، حيث يجب أن يكون للنضال البعد الرقمي والتكنولوجي مكانة أساسية.
وهو ما يتطلب إعادة تفكير شاملة في الاستراتيجيات الوطنية والدولية، بحيث لا يقتصر الدفاع على الأسلحة التقليدية، بل يمتد ليشمل بناء القدرات الرقمية، حماية البيانات، وتأمين الفضاء الإلكتروني، لضمان قدرة الشعوب على مواجهة الاستعمار التكنولوجي المتصاعد.

18. التحول الرقمي في الحروب: هل يمكن للإنسان أن يتحكم في آلة الذكاء الاصطناعي؟ .

واحدة من أبرز التحديات التي يطرحها توظيف الذكاء الاصطناعي في الحروب هي مسألة التحكم والمسؤولية. هل يمكن للإنسان أن يحتفظ بالسيطرة الكاملة على قرارات القتل في زمن تتعاظم فيه قدرة الآلة على اتخاذ قرارات مستقلة؟ هذا السؤال الفلسفي والتقني يحمل في طياته أبعادا خطيرة للغاية، فهو ليس مجرد مسألة تقنية بل قضية أخلاقية وإنسانية جوهرية.
في مؤتمر دولي عقد في جنيف عام 2024، حذر خبراء وممثلون عن الأمم المتحدة من مخاطر تطوير أنظمة قتالية ذاتية الإدارة، مؤكدين على ضرورة أن تبقى قرارات الحياة والموت تحت السيطرة البشرية المباشرة، وهو ما يُعرف بـ"القاعدة الذهبية للإنسانية في الحرب".
يقول الباحث في أخلاقيات التكنولوجيا، روبرت ليبمان:
"عندما تتحول الآلة إلى صانع قرار في الحروب، فإننا نفقد البعد الإنساني الضروري للحفاظ على القيم الأخلاقية، ويصبح القتل عملية رقمية بحتة، بلا حساسية أو رحمة."
هذا يجعل الحاجة إلى وضع أطر قانونية وأخلاقية دولية صارمة لاستخدام الذكاء الاصطناعي في الحروب أمرا ملحا، لا سيما مع توسع استخدام هذه التقنيات في ساحات مثل غزة، التي تتحول إلى نموذج لما يمكن أن يكون عليه مستقبل الحروب.
الرقابة الدولية، المساءلة القانونية، وضمان حقوق المدنيين ليست رفاهية بل ضرورة بقاء. وإلا فإن العالم قد ينزلق إلى عصور من الحروب التكنولوجية التي لا يُحاسب فيها أحد على قتل الأبرياء، ويُستبدل فيها الضمير الإنساني بالأكواد البرمجية.

بين الإنسان والآلة ، معركة الوجود في زمن الحروب الرقمية :
إن الحرب على غزة كشفت الوجه القبيح للتكنولوجيا حين تتحول إلى أداة للإبادة الرقمية والاحتلال الشامل، حيث تصبح أرواح البشر، خصوصا المدنيين، مجرد أرقام وبيانات تُستخدم كوقود لتطوير أنظمة ذكية قاتلة. لقد تغيرت موازين الصراع وأُعيد تعريف مفاهيم القوة والسيادة عبر هذه الحرب التي لم تعد تُدار فقط بأفراد مدججين بالسلاح، بل بأجهزة ذكية تعالج المعلومات بسرعة تفوق قدرة العقل البشري.
هذه المرحلة الجديدة من الحروب تُطرح أمامنا تساؤلات عميقة وخطيرة حول طبيعة الإنسانية نفسها، حول قيمة الإنسان في عالم تحكمه التكنولوجيا، وحول مسؤولية الدولة والشركات والمجتمع الدولي في وضع حدود تحمي المدنيين من التجارب الميدانية لهذه الأسلحة الذكية.
كما أن العلاقة بين الرأسمال التكنولوجي والحروب تكشف بوضوح عن نظام عالمي متشابك حيث تُستخدم دماء الشعوب من أجل تعظيم أرباح الشركات الكبرى، في دورة مفرغة من العنف والتقنية والربح، بلا حدود أخلاقية تُذكر. ما يحتم على كل فاعل إنساني أن يرفع صوته ضد هذا العبث، وأن يطالب بوقف هذه التجارب على أجساد الشعوب المسلوبة.
لكن مع ذلك، يبقى الأمل قائما في مقاومة الشعوب لهذه الهجمة الرقمية، في بناء قدرات تكنولوجية بديلة، وفي الدعوة إلى حوكمة دولية صارمة تُلزم الدول والشركات بالمساءلة، وتضع حدا لما يمكن تسميته بـ"الإبادة الآلية".
إن معركة الإنسان والآلة في الحروب الرقمية ليست فقط معركة تكنولوجية، بل هي معركة وجودية، تتعلق بالكرامة والحرية والحق في الحياة. وما لم ننتبه لهذه الحقيقة، فإن المستقبل سيكون مظلما على الجميع، وستكون غزة وغيرها من ساحات الحروب الرقمية مثالا دائما على ما يمكن أن تؤول إليه الإنسانية عندما تترك للآلة أن تقتل بلا رقيب ولا حسيب.



#رياض_الشرايطي (هاشتاغ)      


ترجم الموضوع إلى لغات أخرى - Translate the topic into other languages



الحوار المتمدن مشروع تطوعي مستقل يسعى لنشر قيم الحرية، العدالة الاجتماعية، والمساواة في العالم العربي. ولضمان استمراره واستقلاليته، يعتمد بشكل كامل على دعمكم. ساهم/ي معنا! بدعمكم بمبلغ 10 دولارات سنويًا أو أكثر حسب إمكانياتكم، تساهمون في استمرار هذا المنبر الحر والمستقل، ليبقى صوتًا قويًا للفكر اليساري والتقدمي، انقر هنا للاطلاع على معلومات التحويل والمشاركة في دعم هذا المشروع.
 



اشترك في قناة ‫«الحوار المتمدن» على اليوتيوب
حوار مع الكاتبة انتصار الميالي حول تعديل قانون الاحوال الشخصية العراقي والضرر على حياة المراة والطفل، اجرت الحوار: بيان بدل
حوار مع الكاتب البحريني هشام عقيل حول الفكر الماركسي والتحديات التي يواجهها اليوم، اجرت الحوار: سوزان امين


كيف تدعم-ين الحوار المتمدن واليسار والعلمانية على الانترنت؟

تابعونا على: الفيسبوك التويتر اليوتيوب RSS الانستغرام لينكدإن تيلكرام بنترست تمبلر بلوكر فليبورد الموبايل



رأيكم مهم للجميع - شارك في الحوار والتعليق على الموضوع
للاطلاع وإضافة التعليقات من خلال الموقع نرجو النقر على - تعليقات الحوار المتمدن -
تعليقات الفيسبوك () تعليقات الحوار المتمدن (0)


| نسخة  قابلة  للطباعة | ارسل هذا الموضوع الى صديق | حفظ - ورد
| حفظ | بحث | إضافة إلى المفضلة | للاتصال بالكاتب-ة
    عدد الموضوعات  المقروءة في الموقع  الى الان : 4,294,967,295
- رؤوس أقلام حول أمريكا: الإمبريالية الحربية والاقتصادية من ال ...
- أحفاد مانديلا . تحرير العمل: الدرس الجنوب إفريقي.
- البيروقراطية
- السودان يحترق... والطبقات الحاكمة تتقاسم الخراب
- قراءة نقدية لديوان -في أن يستكين البحر لفرح موج- لإدريس علوش ...
- البناء القاعدي: من فكرة التحرر إلى أداة الهيمنة؟
- الحداثة والظلامية: وجهان لعملة واحدة في مأزق التاريخ العربي.
- ما بعد الجمهورية: زمن الوحوش أم زمن الاحتمال؟
- الخديعة الأمريكية الكبرى: الإمبريالية وخراب فلسطين.
- اليسار التونسي: بين الأمس الإيديولوجي واليوم السياسي.
- الأخلاق في الميزان السياسي في القرن 21.
- الشعبية: من التحرير الرمزي إلى بناء السيادة الفعلية
- قراءة في رواية -1984- لجورج أورويل.
- الكتابة فعل نضال
- جنوب يخرج من ظلّ الأمم المتّحدة: مقترحات للفكاك من نظام الغل ...
- الحرف ساحة صراع طبقيّ: تفكيك الخطاب وتحرير اللغة من الهيمنة.
- بيان نواة مجموعة يسارية متمرّدة
- الرّأس
- الى الرفيق جورج ابراهيم عبدالله مباشرة
- اليسار المتحزّب واليسار المستقل: بين البيروقراطية والمقاومة. ...


المزيد.....




- إسرائيل تقول إن صاروخا أطلق من اليمن -تفتت في الجو-
- وزارة العدل الأميركية تنشر محاضر وتسجيلات مقابلة مع شريكة إب ...
- اجتماع بين وزيري خارجية أميركا وكوريا الجنوبية قبل قمة بين ا ...
- مصرع 5 بانقلاب حافلة سياحية على طريق سريع في نيويورك
- 89 قتيلا خلال 10 أيام جراء هجمات في الفاشر السودانية
- عراقجي يثير التساؤلات حول مصير اليورانيوم: -مدفون تحت الأنقا ...
- ترمب يعين أحد أبرز مساعديه في البيت الأبيض سفيرا لدى الهند
- بوتين يرى بارقة أمل في العلاقات بين روسيا وأميركا خلال ولاية ...
- إدارة ترمب تعتزم إقالة رئيس وكالة استخبارات الدفاع
- -تيك توك- في بريطانيا تحت وصاية الذكاء الاصطناعي


المزيد.....

- الأرملة السوداء على شفا سوريا الجديدة / د. خالد زغريت
- المدخل الى موضوعة الحوكمة والحكم الرشيد / علي عبد الواحد محمد
- شعب الخيام، شهادات من واقع احتجاجات تشرين العراقية / علي الخطيب
- من الأرشيف الألماني -القتال في السودان – ينبغي أن يولي الأل ... / حامد فضل الله
- حيث ال تطير العقبان / عبدالاله السباهي
- حكايات / ترجمه عبدالاله السباهي
- أوالد المهرجان / عبدالاله السباهي
- اللطالطة / عبدالاله السباهي
- ليلة في عش النسر / عبدالاله السباهي
- كشف الاسرار عن سحر الاحجار / عبدالاله السباهي


المزيد.....


الصفحة الرئيسية - مواضيع وابحاث سياسية - رياض الشرايطي - الحرب كحقل تجارب للذكاء الاصطناعي: كيف أصبحت غزة مختبرا للمراقبة والاستهداف.