أخبار عامة - وكالة أنباء المرأة - اخبار الأدب والفن - وكالة أنباء اليسار - وكالة أنباء العلمانية - وكالة أنباء العمال - وكالة أنباء حقوق الإنسان - اخبار الرياضة - اخبار الاقتصاد - اخبار الطب والعلوم
إذا لديكم مشاكل تقنية في تصفح الحوار المتمدن نرجو النقر هنا لاستخدام الموقع البديل

الصفحة الرئيسية - دراسات وابحاث قانونية - محمد أوبالاك - قراءة في كتاب -الروبوتات: نظرة صارمة في ضوء العلوم القانونية والاجتماعية والانسانية:















المزيد.....



قراءة في كتاب -الروبوتات: نظرة صارمة في ضوء العلوم القانونية والاجتماعية والانسانية:


محمد أوبالاك

الحوار المتمدن-العدد: 7304 - 2022 / 7 / 9 - 23:50
المحور: دراسات وابحاث قانونية
    


قراءة في كتاب قراءة في كتاب "الروبوتات: نظرة صارمة في ضوء العلوم القانونية والاجتماعية والانسانية، المحرر في نصه الأصلي باالغة الفرنسية، تحت عنوان:
Les Robots : Regards disciplinaires en sciences juridiques, sociales et humaines
Julie GRANGEON et Marylon FRANCOISE .
Presses Universitaires d Aix Marseille 07/2020.
قراءة، ترجمة وتحيين، محمد أوبالاك، محام وباحث في التشريع الرقمي.
المقدمة:
قبل محاولة قراءة الكتاب موضوع البحث حول الذكاء الاصطناعي الذي نتج عنه صناعة الانسان الآلي (الروبو)، فإنه لا بأس من التطرق إلى موضوع الذكاء الاصطناعي على العموم، والانسان الآلي أو الربو على الخصوص، وذلك من خلال محاولة تعريف الذكاء الاصطناعي (أولا)، وكذا ذكر أنواعه (ثانيا)، ثم ننتقل للحديث عن النظم القانونية الحالية لتنظيم عمل الروبو الذي يعد ترجمة مادية وواقعية لعالم الذكاء الاصطناعي، خاصة ما جاء قرار البرلمان الأوروبي بتاريخ 16 فبراير 2017 مع توصيات إلى لجنة قواعد القانون المدني الخاصة بالروبوتات، الذي يعد ثاني قانون بعد الفانون الأمريكي، الذي تطرق في مقتضياته إلى المحددات التشريعية لاستعمال الروبو في كل من مجال السلم (الاستعمال المدني للتقنية)، وفي مجال الحرب (الطائرات الحربية دون طيار)، كما لن يفوتنا الاستشهاد برأي منظمة الأمم المتحدة الراعية لجميع التدابير التشريعية والمؤسسات الراعية للمستجدات العالمية في مجال العلم والتكنولوجيا، وذلك في ست مباحث:
المبحث الأول: تعريف الذكاء الاصطناعى :
يُعتبر الذكاء الاصطناعي أحد فروع علوم الكمبيوتر وأحد الركائز الرئيسية التي تستند إليها صناعة التكنولوجيا في العصر الحالي ، ويمكن تعريف مصطلح الذكاء الاصطناعي ، الذي يشار إليه باختصار (AI) – بأنه قدرة الآلات الرقمية وأجهزة الكمبيوتر على أداء مهام معينة تحاكيها وتماثلها تلك التي تقوم بها كائنات ذكية، مثل القدرة على التفكير أو التعلم من التجارب السابقة أو غيرها من العمليات التي تتطلب عمليات عقلية ، والذكاء الاصطناعي يهدف إلى الوصول إلى الأنظمة التي استمتع بالذكاء وتتصرف بالطريقة التي يتصرف بها البشر فيما يتعلق بالتعلم وعدم الفهم ، بحيث توفر هذه الأنظمة لمستخدميها خدمات مختلفة مثل التعليم والإرشاد والتفاعل .
ولقد انطلق البحث الفلسفي في مجال الذكاء الاصطناعي تزامنا مع انبثاق الثورة العلمية الكبيرة في هذا المجال ، إذ استند هذا المشروع العلمي الخلاق على تلاحم علمي فلسفي يندر مثيله ، وعلى الرغم من التلاحم بين الفلسفة والعلم في إنجاز ثورات علمية قد حصل في تاريخ الفكر الإنساني بشكل استثنائي ولعل الثورة العلمية في اكتشاف قوانين التفاضل والتكامل خير مثال على ذلك، إلا أن ابتكار الذكاء الاصطناعي جاء على خلفية فلسفية متطورة ومدروسة بشكل جيد خطط لها أن تستثمر علميا ، ففلسفة المنطق ثنائي القيمة المعاصرة وصلت إلى أوجها في بداية القرن العشرين بعد الجهود التي بذلت إلى شحن المنطق المعاصر بقدرة هائلة من المرونة المنبثقة من الجبر المنطقي المبتكر واللغات الرمزية المتعددة، بحيث يستطيع أن يتعامل مع المجالات العلمية الأكثر دقة وصورية متمثلا ذلك بعلم الرياضيات ، إذ استطاع المنطق المعاصر أن يفسر الأسس الفلسفية المبني عليها هذا العلم ، كونه تسلح بلغة لا تستطيع أي لغة غيرها أن تبوح بما تعني به قوانين الرياضيات وعلى أي بنية فكرية تستند، ذلك أن المنطق المعاصر بالإضافة إلى خاصيته الصورية الرمزية التي يشترك بها مع الرياضيات لكنه يتميز عنها بخاصية قدرته على شرح المضمون الفلسفي التي تنطوي عليه الجمل الرمزية على شكل إجرائية متسلسلة من الاستنتاجات ما تمتلكها الرياضيات الصرفة ، فهذه الخاصية الإجرائية التي تستطيع أن تشيد فرضيات أدق العلوم انطلاقا من أساسها الفكري بالإضافة إلى اللغة الفائقة البساطة التي يصوغ بها مضمونه الفكري والتي تتكون فقط من حرفين كونه منطق ثنائي القيمة.
بيد أن ما جعل المنطق الرياضي المعاصر جاهزا بأن يداعب خيال العلماء لاستنساخ منه هاتين الخاصيتين وتنفيذها تقنيا على شكل لغة اصطناعية نتفاهم بها مع الآلة اما المعنى الشائع للذكاء الاصطناعي يتعلق كليا بمقارنة وتمييز ذكاء ماكينة الحاسوب نسبة إلى ذكاء الكائن البشري ، أو بوصف آخر للذكاء الاصطناعي بأنه الكيفية التي تصنف بها ماكينة الحاسوب ضمن حقل الذكاء ولكن كلا الوصفين لم يلق قبولا عاما ليكون تعريفا للذكاء إذ جاء الاعتراض منصبا على أن ” الذكاء ” نشاط يستمد فهمه من تلاصقه بمالكه الشرعي وهو الإنسان .
المبحث الثاني: أنواع الذكاء الاصطناعى :
يعود استعمال مصطلح الذكاء الاصطناعى إلى أواسط القرن العشرين، وبالتحديد في سنوات الخمسينيات، عندما كان العالم يقوم الآن باختبار تقنية "تورينج"، الذي يعني تقييم الذكاء على جهاز كمبيوتر، وتصنيفه إذا كان قادرًا على محاكاة العقل البشري بعد أن ظهر اختبار "تورينج"، أنشأ كريستوفر ستراشي رئيس بحوث البرمجة بجامعة أوكسفورد أول برنامج ذكاء اصطناعي، الذي لعب وطوّر لعبة "Chequers"، من خلال الكمبيوتر، وأنتوني أوتنجر (بالإنجليزية Anthony Oettinger of ، حيث صممت جامعة كامبريدج تجربة محاكاة مع جهاز كمبيوتر للتسوق البشري في أكثر من متجر، وكانت أول تجربة ناجحة للتعلم الآلي.
وقد تمّ إعلان مفهوم الذكاء الاصطناعي بشكل رسمي خلال سنة 1956 في كليّة دارتموث، إلا أن التجربة لم تحقق أي تقدّم على مدى عشرين عاماً، وذلك بسبب القُدرات الحاسوبيّة المحدودة التي كانت متوفرة آنذاك، إلا أنه وخلال سنة 1979، تم بناء مركبة Stanford، وهي بمثابة أول مركبة يحركها الكمبيوتر، وفي عام 1997 تمكن أول كمبيوتر من التغلب على منافس بشري في لعبة الشطرنج.
إلا أن الألفية الثالثة كانت بداية التسارع في الذكاء الاصطناعي، بحيث أصبحت الروبوتات التفاعلية متوفرة في المتاجر، والأكثر من ذلك هو أن الروبوت أصبح لديها القدرة على التفاعل مع المشاعر المختلفة من خلال تعبيرات الوجه، بل أصبح لديها القدرة على القيام بمهام صعبة مثل "ربو نوماد"، الذي برمج للبحث واستكشاف الأماكن النائية في القطب الجنوبي، كما برمج لتحديد موقع النيازك.
أنه وتِبعاً لما يتمتع به عالم "الروبو" من قدرات، يمكن تقسمه إلى ثلاثة أنواع مُختلفة:
النوع الأول: الذكاء الاصطناعي المحدود أو الضيق: يعتبر الذكاء الاصطناعي المحدود أو الضيق (بالإنجليزيّة: Weak AI´-or-Narrow AI) أحد أنواع الذكاء الاصطناعي التي تستطيع القيام بمهام مُحددة وواضحة، كالسيارات ذاتيّة القيادة، أو حتى برامج التعرُف على الكلام أو الصور، أو لعبة الشطرنج الموجودة على الأجهزة الذكية، ويُعتبر هذا النوع من الذكاء الاصطناعي أكثر الأنواع شيوعاً وتوفراً في وقتنا الحالي.
النوع الثاني: الذكاء الاصطناعي العام: (بالإنجليزيّة: General AI) وهو النوع الذي يُمكن أن يَعمل بقدرة تُشابه قدرة الإنسان من حيث التفكير، إذ يُركز على جعل الآلة قادرة على التفكير والتخطيط من تلقاء نفسها وبشكل مُشابه للتفكير البشري، إلا أنه لا يوجد أيّ أمثلة عمليّة على هذا النوع، فكل ما يوجد حتى الآن مُجرد دراسات بحثيّة تحتاج للكثير من الجهد لتطويرها وتحويلها إلى واقع، وتعد طريقة الشبكة العصبيّة الاصطناعيّة (بالإنجليزيّة: Artificial Neural Network) من طرق دراسة الذكاء الاصطناعي العام، إذ تُعنى بإنتاج نظام شبكات عصبيّة للآلة مُشابهة لتلك التي يحتويها الجسم البشري.
النوع الثالث: الذكاء الاصطناعي الفائق: يُعتبر الذكاء الاصطناعي الفائق النوع الذي قد يفوق: 3- مستوى ذكاء البشر، والذي يستطيع القيام بالمهام بشكل أفضل مما يقوم به الإنسان المُتخصص وذو المعرفة، ولهذا النوع العديد من الخصائص التي لا بد أن يتضمنها؛ كالقدرة على التعلُم، والتخطيط، والتواصل التلقائي، وإصدار الأحكام، إلا أن مفهوم الذكاء الاصطناعي الفائق يُعتبر مفهوماً افتراضياً ليس له أي وجود في عصرنا الحالي.
المبحث الثالث: قراءة في كتاب "الروبوتات: نظرة صارمة في ضوء العلوم القانونية والاجتماعية والانسانية:
إن التطرق لفحوى الكتاب المشار إليه أعلاه (موضوع القراءة)، وما تضمنه من معلومات حول الاستعمال المدني للإنسان الآلي، نشير إلى أن الكتاب قد تم إنجازه على ضوء صدور قرار البرلمان الأوروبي بتاريخ 16 فبراير 2017 مع توصيات إلى لجنة قواعد القانون المدني الخاصة بالروبوتات، المنعقد بمدينة ستراسبورغ الفرنسية ، كما أن الكتاب كان نتاج نقاش عميق داخل كليات الحقوق بفرنسا، في إطار ما يسمى ب Projet Lexoïd الذي يهتم بالتكييف القانوني لعمل ومهام الروبوتات والمسؤوليات المترتبة عنهما، وكان من أهم هذه اللقاءات العلمية، اللقاء العلمي الذي نظمته جامعة جون مولين بمدينة ليون الفرنسية، خلال يونو 2018، تحت عنوان: الروبوتات، أي رمز للقيادة: إثبات حالة .
وقد كان من بين المحاور التي تبناها الكتاب موضوع القراءة في صفحاته 107، الموزعة على جزء تمهيدي منجز من طرف "جولي غرانجيون" طالبة باحثة، ملحقة مؤقتة للتعليم وإجراء البحث حول مشروع Lexoïd بمركز البحث الخاص بالقانون الأوربي، الدولي والمقارن، بجامعة جون مولين (ليون 3)، ثم جزء تقديمي منجز من طرف ماريلو فروانسواز أستاذة القانون الأوربي، الدولي والمقارن، بجامعة جون مولين (ليون 3)، بصفتها رئيسة مشروع Lexoïd، ثلاثة أجزاء:
- الجزء الأول: الروبوتات والقانون المدني، تفرع عنه:
- نظرة موجزة عن الوضعية القانونية للروبوتات شبه بشرية، بقلم: ماري بوتوس.
- أنظمة المسؤولية المدنية لاختبار السيارات ذات التحكم الآلي، بقلم: ماريلو فرونسواز.
- مساهمة الفقه الأمريكي بخصوص عمل الانسان الآلي، بقلم: ماري تيلمان.
- الجزء الثاني: الروبوتات والقانون الاجتماعي (قانون الشغل وقانون حوادث الشغل)، تفرع عنه:
- علاقة استخدام الانسان الآلي (الروبتة) بقانون الشغل، بقلم: إيتيان نيكولاس.
- الحماية الاجتماعية المقررة لاستخدام الانسان الآلي (الروبتة) لانجاز الشغل، بقلم: كوتيي لاكروا.
- استخدام الانسان الآلي (الروبتة) داخل المقاولات: تحديات ضريبة استعمال الروبوتات: رؤية اقتصادية وقانونية ، بقلم: دولفين سيكيي ديلو.
- الجزء الثالث، الروبوتات والقانون الأوروبي والدولي، تفرع عنه:
- الربوتات والقانون الدولي الانساني (ميثاق حقوق الانسان والمواثيق اللاحقة عنه)، بقلم:كارولين برانداو.
- الاستهداف الخارجي بواسطة استخدام طائرات مسلحة بدون طيار ، والالتزام الدولي باحترام حقوق الإنسان، بقلم: الضيفة الموفدة: غريس-ديس مبايلاسيم دونكار.
ليتم تلخيص محتويات الكتاب، في النقط الثلاثة التالية:
النقطة الأولى:
تم بناء محتويات الكتاب حول مسألة الإشراف على العلاقة بين الروبوتات والمجتمع، وهو ما يهدف إلى التشكيك في قدرة أنظمتنا القانونية على منع الانتهاكات المحتملة، بينما تم التفكير في مشروع Lexoïd بأكمله لأول مرة باستخدام نهج متعدد التخصصات، إذ تم إنتاج العمل في النهاية من قاعدة مشتركة: القانون، كإطار منظم ومفسر، ثم إجراء هذا الاختيار الاستراتيجي في محاولة لتقديم إجابات لمشكلتنا الأولية: هل توجد قواعد لتنظيم استخدام مجتمعنا للروبوتات بشكل فعال؟ وهو ما جعل هذا الكتاب، يسعى إلى تحقيق طموحين: استجواب الممارسين والمتخصصين في مختلف المجالات، ثم السماح للفقه القانون الفتي في مجال الذكاء الاصطناعي عماة، ومجال الروبوتات خاصة، بمواجهة هذه الحقائق العملية بالتحليلات القانونية التي تم تطويرها في مجالات بحثهم الخاصة، وهو ما منح الكتاب التطرق للموضوع من الجانب النظري والعملي في آن واحد.
النقطة الثانية:
في هذا السياق، يقترح فريق مشروع Lexoïd، فك رموز عواقب وتحديات وصول الروبوتات إلى مجتمعنا، إذ تناول أولاً السؤال الدقيق المتعلق بالوضع القانوني للروبوت، ونطاق أنظمة المسؤولية المدنية في القانون الفرنسي، كما أضيف إلى هذا المحور المدني، تحليل لحالة القانون الأمريكي بشأن هذه القضايا (الجزء الأول - الروبوتات والقانون المدني)، ليتم بعد ذلك دراسة الموضوع تحت منظور الشركة، من خلال تحليل التأثيرات الروبوتية الجديدة في مكان العمل ودراسة تحديات الروبوتات من حيث الحماية الاجتماعية، استكمالا لوجهة النظر الاقتصادية، بشأن العواقب الضريبية للروبوتات في المقولات الصناعية والتجارية (الجزء الثاني - الروبوتات والقانون الاجتماعي)، ليختتم الكتاب، بالحديث عن استخدام الروبوتات للأغراض العسكرية، وهو ما يطرح إشكالية الاستخدام خارج الحدود الإقليمية لأنظمة الأسلحة المستقلة، وتأثيرها على محتويات القانون الدولي الإنساني، بصفة عامة، وعلى نطاق أوسع فيما يتعلق بحقوق الإنسان (الجزء الثالث - الروبوتات والقانون الأوروبي والدولي).
النقطة الثالثة:
في الوقت الذي كانت بدايات هذا النهج العلمي مدفوعة في البداية بالحدس، فإن المساهمات الحالية جعلت من الممكن معالجة كل جانب من الجوانب المعروضة بشكل ملموس، حيث جاء كل مساهم في المحتويات العلمية والقانونية للكتاب، لتقديم رؤية أوضح للقضايا التي أثارها ظهور هذه الآلات المتطورة الناتجة عن طفرة قوية للذكاء الاصطناعي خلال الألفية الثالثة، في حين تكشف بعض الجوانب عن حاجة ملحة لتشريع حاثي مواكب، تضع الأصبع على فجوات القانون الحالي بخصوص التكيف مع مستجدات الواقع العملي المتطور باستمرار .
وبالموازاة مع ما جاء بالكتاب المشار إلى محتوياته أعلاه، نجد أن نشر الذكاء الاصطناعي في جميع أنحاء المجتمع الإنساني، يواجه بقضايا جديدة، وهو ما ردده المشاركون في المؤتمر المنظم من قبل المشرفين على كلية الحقوق لومان LE MANS(غرب فرنسا)، في 14 نونبر 2019.
كما أنه قد تم تصور الذكاء لأول مرة على أنه انعكاس للشخص الاعتباري، من خلال فحص أسئلة المسؤولية أو الملكية أو الشخصية التي تثيرها، ثم باعتباره انعكاسًا للشخص البشري، وكذا من خلال فحص الأسئلة القانونية والفلسفية المرتبطة بالتشابه مع التكوين البشري (مخلوق طبيعي) في حالته الحية أو الميتة/الجامدة، ثم تم اعتبار الذكاء الاصطناعي بمثابة تتابع للشخص وجسده، من خلال فحص القضايا الأخلاقية والقانونية التي تواجهها، في سياق مجال البحث الطبي أو على نطاق أوسع في إطار نظام الصحة، ثم في تتابع الأنشطة البشرية سواء كانت تقليدية أو قضائية
لذا، فإنه وبما أن الكتاب مؤسس على مقتضيات قرار الاتحاد الأوربي المتعلق بالاستعمال المدني للربوتات لسنة 2017، فإننا وتعميما للفائدة وفتح باب النقاش - المستقبلي -، سوف نعمد إلى نشر ترجمتنا لهذا القرار وملحقه العمل (بمثابة قانون تنظيمي)، وذلك في ما يلي:
المبحث الرابع: ترجمة النصوص المعتمدة حول: قواعد القانون المدني على الروبوتات، الخميس 16 فبراير 2017 – ستراسبورغ:
(قرار البرلمان الأوروبي المؤرخ 16 فبراير 2017 مع توصيات إلى لجنة قواعد القانون المدني بشأن الروبوتات (2015/2103 (INL)): البرلمان الأوروبي،
- مع مراعاة المادة 225 من معاهدة عمل الاتحاد الأوروبي ،
- مع مراعاة توجيه المجلس 85/374 / EEC (1) ،
- مع الأخذ في الاعتبار دراسة "الجوانب الأخلاقية للأنظمة السيبرانية الفيزيائية، دراسة الاستبصار العلمي" التي أجريت بناءً على طلب لجنة تقييم الخيارات العلمية والتكنولوجية (STOA) الأوروبية التابعة للبرلمان، من قبل وحدة الاستبصار العلمي التابعة للمديرية العامة لخدمات البحوث البرلمانية ؛
- مع مراعاة المادتين 46 و 52 من نظامها الداخلي،
- مع مراعاة تقرير لجنة الشؤون القانونية وآراء لجنة النقل والسياحة، ولجنة الحريات المدنية والعدل والشؤون الداخلية، ولجنة العمالة والشؤون الاجتماعية، ولجنة البيئة، والجمهور الصحة وسلامة الغذاء، لجنة الصناعة والبحوث والطاقة ولجنة السوق الداخلية وحماية المستهلك (A8-0005/2017)،

المقدمة:
أ- بينما، من مخلوق فرانكشتاين الذي تخيلته ماري شيلي إلى أسطورة Pygmalion القديمة، عبر غولم براغ وروبوت Karel Čapek، مخترع المصطلح، كان البشر يحلمون ببناء آلات ذكية، غالبًا؛
ب- في حين أن البشرية تجد نفسها الآن على أعتاب عصر يبدو فيه أن الروبوتات المتطورة والخوارزميات الذكية والأندرويد وأشكال أخرى من الذكاء الاصطناعي على وشك إطلاق ثورة صناعية جديدة من المحتمل أن تؤثر على جميع طبقات المجتمع ، من الأهمية بمكان أن يقوم المشرع بفحص العواقب والآثار القانونية والأخلاقية لمثل هذه الثورة، دون خنق الابتكار؛
ج- في حين أن هناك حاجة إلى وضع تعريف مقبول بشكل عام للروبوتات والذكاء الاصطناعي يكون مرنًا ولا يعيق الابتكار؛
د. في حين زادت مبيعات الروبوتات بين عامي 2010 و 2014 بمعدل 17٪ سنويًا ، فقد شهدت في عام 2014 أعلى زيادة سنوية لها (29٪) وأن موردي السيارات والإلكترونيات / الإلكترونيات هما المحركان الرئيسيان لهذا النمو؛ في حين أن العدد السنوي لطلبات براءات الاختراع في مجال الروبوتات قد تضاعف ثلاث مرات خلال السنوات العشر الماضية؛
هـ. بينما زادت أرقام العمالة بشكل مطرد خلال القرنين الماضيين بفضل التقدم التكنولوجي؛ أن تطوير الروبوتات والذكاء الاصطناعي يحمل إمكانات كبيرة لتحويل أساليب العمل وأنماط الحياة، وزيادة الكفاءة وتوفير المال وتحسين السلامة ومستوى الخدمة؛ بينما على المدى القصير إلى المتوسط ، تعد الروبوتات والذكاء الاصطناعي بفوائد من حيث الكفاءة والادخار ، ليس فقط في الإنتاج والتجارة، ولكن أيضًا في مجالات مثل النقل والرعاية الصحية والطبية والإنقاذ والتعليم والزراعة، مع المساعدة في تجنب الانكشاف البشر لظروف خطرة، على سبيل المثال أثناء عمليات تنظيف المواقع الملوثة بالمواد السامة؛
و. في حين أن شيخوخة السكان هي نتيجة متوسط العمر المتوقع نتيجة للتقدم في ظروف المعيشة والطب الحديث، وتشكل واحدة من التحديات السياسية الرئيسية، والقضايا الاجتماعية والاقتصادية في القرن الحادي والعشرين للمجتمعات الأوروبية؛ في حين أنه بحلول عام 2025 سيكون أكثر من 20٪ من الأوروبيين في سن 65 أو أكثر، مع زيادة سريعة بشكل خاص في عدد الأشخاص الذين تبلغ أعمارهم 80 عامًا أو أكثر، مما سيؤدي إلى تحول جوهري في التوازن بين الأجيال داخل مجتمعاتنا، مع الأخذ في الاعتبار ذلك من مصلحة المجتمع أن يظل كبار السن أصحاء ونشطين لأطول فترة ممكنة ؛
ز. بينما على المدى الطويل، فإن الاتجاه الحالي نحو تطوير آلات ذكية ومستقلة، مع القدرة على التعلم واتخاذ القرارات بشكل مستقل، لا يجلب فقط مزايا اقتصادية ولكن أيضًا مخاوف متعددة فيما يتعلق بآثارها المباشرة وغير المباشرة على المجتمع مثل ككل؛
ح. بينما يقدم التعلم الآلي فوائد كبيرة للمجتمع من حيث الاقتصاد والابتكار من خلال تحسين القدرة على تحليل البيانات بشكل كبير، ولكنه يفرض أيضًا تحديات في ضمان عدم التمييز والمعاملة العادلة والشفافية ووضوح عمليات صنع القرار؛
1. بينما ، في الوقت نفسه، ينبغي تقييم التطورات الاقتصادية وتأثير الروبوتات والتعلم الآلي على العمالة؛ بينما، على الرغم من المزايا التي لا يمكن إنكارها التي توفرها الروبوتات ، فإن تنفيذها يهدد بإحداث تغيير في سوق العمل والحاجة إلى التفكير وفقًا لذلك في مستقبل التعليم والتوظيف والسياسات الاجتماعية؛
ط. في حين أن الاستخدام الواسع للروبوتات قد لا يؤدي تلقائيًا إلى تدمير الوظائف ، إلا أن الوظائف الأقل مهارة في القطاعات كثيفة العمالة من المرجح أن تكون أكثر عرضة للأتمتة؛ في حين أن هذا الاتجاه يمكن أن يؤدي إلى عودة عمليات الإنتاج إلى أراضي الاتحاد الأوروبي؛ في حين أظهرت الأبحاث أن نمو الوظائف يكون أقوى بشكل ملحوظ في المهن التي تستخدم بشكل أكبر لأجهزة الكمبيوتر؛ تحمل أتمتة (التشغيل الآلي) الوظائف هذه القدرة على تحرير الأشخاص من المهام اليدوية الرتيبة والسماح لهم بالتركيز بدلاً من ذلك على مهام أكثر إبداعًا وبناءة ؛ بينما تتطلب الأتمتة من الحكومات الاستثمار في التعليم والإصلاحات الأخرى لتحسين إعادة تخصيص أنواع المهارات التي سيحتاجها عمال الغد؛
ك. بينما، بالنظر إلى حقيقة أن الفجوات الاجتماعية آخذة في الاتساع الآن، مع تقلص الطبقة الوسطى، يجب أن يؤخذ في الاعتبار أن تطوير الروبوتات قد يؤدي إلى تركيز كبير للثروة والسلطة في أيدي أقلية؛
ل. في حين أن تطوير الروبوتات والذكاء الاصطناعي سيؤثر حتمًا على بيئة العمل وقد يخلق مخاوف جديدة تتعلق بالمسؤولية ويمحو أخرى؛ يجب توضيح تلك المسؤولية القانونية في كل من نموذج العمل وعند تحديد العمل الذي يتعين القيام به في حالة وقوع حادث أو حالة طوارئ؛
م. في حين أن الاتجاه نحو الأتمتة يتطلب من المشاركين في تطوير وتسويق تطبيقات الذكاء الاصطناعي دمج السلامة والأخلاق فيها منذ البداية، وبالتالي إدراك أنهم يجب أن يكونوا مستعدين لقبول المسؤولية القانونية عن جودة التكنولوجيا التي ينتجونها؛
ن. بينما تحدد لائحة (الاتحاد الأوروبي) 2016/679 للبرلمان الأوروبي والمجلس (2) (GDPR) إطارًا قانونيًا لحماية البيانات الشخصية؛ في حين أن الجوانب الأخرى المتعلقة بالوصول إلى البيانات وحماية البيانات الشخصية والخصوصية قد تحتاج إلى مزيد من الدراسة ، نظرًا لأن الاتصالات من التطبيقات والأجهزة مع بعضها البعض ومع قواعد البيانات دون تدخل بشري قد تستمر في إثارة مخاوف الخصوصية؛
س. في حين أن التقدم في مجال الروبوتات والذكاء الاصطناعي يمكن وينبغي، من مرحلة التصميم، الحفاظ على كرامة الإنسان واستقلاليته وتقرير المصير ، لا سيما في مجال رعاية الناس ورفقتهم وفي سياق الأجهزة الطبية، "إصلاح" أو تحسين جسم الإنسان؛
ع. في حين أنه من الممكن، في النهاية، أن يتجاوز الذكاء الاصطناعي القدرات الفكرية للبشر على المدى الطويل؛
ف. في حين أن زيادة التطوير واستخدام عمليات صنع القرار التلقائية والخوارزمية لها تأثير بلا شك على الخيارات التي يتخذها الأفراد (مثل الشركات أو مستخدمو الإنترنت) والسلطات الإدارية أو القضائية أو غيرها من السلطات العامة عندما يتخذون قرارًا باعتباره المستهلك أو العمل أو السلطة؛ في حين أنه من الضروري دمج الضمانات والإمكانيات للتحكم البشري والتحقق في عمليات صنع القرار التلقائية والخوارزمية؛
ص. في حين أن العديد من الدول الأجنبية، مثل الولايات المتحدة واليابان والصين وكوريا الجنوبية ، تدرس اتخاذ تدابير تنظيمية في مجال الروبوتات والذكاء الاصطناعي، وقد اتخذت بالفعل بعض الإجراءات في هذا الاتجاه؛ بينما بدأت بعض الدول الأعضاء أيضًا في التفكير في إمكانية تطوير معايير قانونية أو تعديل التشريعات القائمة لمراعاة ظهور تطبيقات جديدة لهذه التقنيات؛
ق. في حين أن الصناعة الأوروبية يمكن أن تستفيد من نهج تنظيمي فعال ومتماسك وشفاف على مستوى الاتحاد الأوروبي، والذي يحدد شروطًا يمكن التنبؤ بها وواضحة بما يكفي يمكن للشركات بموجبها تصميم التطبيقات وتطوير نماذج أعمالها على المستوى الأوروبي مع ضمان أن الاتحاد وعضوه تحتفظ الدول بالسيطرة على المعايير التنظيمية التي سيتم تحديدها، حتى لا تضطر إلى اعتماد معايير حددها الآخرون والتعايش معها ، مثل البلدان الثالثة التي تحتل أيضًا موقع الصدارة في تطوير الروبوتات والذكاء الاصطناعي؛
مبادئ عامة:
ر. بينما يجب اعتبار قوانين Asimov (3) على أنها تنطبق على مصممي ومصنعي ومشغلي الروبوتات، بما في ذلك الروبوتات ذات الاستقلالية وقدرات التعلم الذاتي ، حيث لا يمكن ترجمة القوانين المذكورة إلى لغة برمجة؛
ش. في حين أنه من المفيد والضروري تحديد سلسلة من القواعد، لا سيما فيما يتعلق بالمسؤولية والشفافية والالتزام بتقديم الحسابات، والتي تعكس القيم الإنسانية الأوروبية والعالمية الجوهرية التي تميز مساهمة المجتمع؛ في حين أن هذه القواعد لا ينبغي أن تعرقل البحث والتطوير والابتكار في مجال الروبوتات ؛
ت. بينما يمكن أن يلعب الاتحاد الأوروبي دورًا رئيسيًا في تحديد المبادئ الأخلاقية الأساسية التي يجب احترامها عند تصميم وبرمجة واستخدام الروبوتات والذكاء الاصطناعي وفي دمج هذه المبادئ في اللوائح ومدونات السلوك، بهدف تشكيل الثورة التكنولوجية بحيث إنها تخدم البشرية وحتى يستفيد أكبر عدد ممكن من الناس من الروبوتات المتطورة والذكاء الاصطناعي، مع تجنب المزالق المحتملة قدر الإمكان؛
ث. في حين أن ميثاق الروبوتات منصوص عليه في مرفق هذا القرار، فقد تم وضعه بمساعدة وحدة الاستبصار العلمي (STOA) التابعة للمديرية العامة لخدمات البحوث البرلمانية وأنه يقترح مدونة أخلاقية قواعد السلوك للمهندسين الآليين ، ومدونة أخلاقيات لجان أخلاقيات البحث، و "ترخيص" للمصممين و "ترخيص" للمستخدمين؛
خ. في حين أن نهجًا تدريجيًا وعمليًا وحذرًا، كما دعا إليه جان مونيه (4) ، يجب اعتماده على مستوى الاتحاد الأوروبي فيما يتعلق بأي مبادرة مستقبلية تتعلق بالروبوتات والذكاء الاصطناعي ، حتى لا يحد من الابتكار؛
ذ. بينما ، في ضوء حالة تطور الروبوتات والذكاء الاصطناعي، من المناسب البدء في النظر في قضايا المسؤولية المدنية؛
المسئولية:
ض. في حين، بفضل التقدم التكنولوجي المثير للإعجاب على مدى السنوات العشر الماضية، فإن الروبوتات الحالية ليست فقط قادرة على تنفيذ المهام التي كانت في يوم من الأيام مسألة تتعلق بالكفاءة البشرية حصريًا، ولكن أيضًا تطوير بعض الوظائف المستقلة والمعرفية (مثل القدرة للتعلم من التجربة أو لاتخاذ قرارات شبه مستقلة)، جعل هذه الروبوتات أقرب إلى حالة العملاء الذين يتفاعلون مع بيئتهم ويكونون قادرين على تعديلها بطريقة مهمة ؛ بينما ، في مثل هذا السياق ، تصبح مسألة المسؤولية القانونية في حالة الفعل الضار من قبل الروبوت سؤالا حاسما؛
ظ. في حين يمكن تعريف استقلالية الروبوت على أنها القدرة على اتخاذ القرارات ووضعها موضع التنفيذ في العالم الخارجي، بغض النظر عن أي سيطرة أو تأثير خارجي؛ أن هذا الاستقلالية ذات طبيعة تقنية بحتة وأن درجة الاستقلالية تعتمد على درجة تعقيد التفاعلات مع البيئة التي يوفرها برنامج الروبوت؛
أ.ب. بالنظر إلى أنه كلما كان الروبوت أكثر استقلالية، قل ما يمكن اعتباره أداة بسيطة يتحكم فيها ممثلون آخرون (مثل الشركة المصنعة، والمشغل، والمالك، والمستخدم، وما إلى ذلك)؛ في حين أن السؤال الذي يطرح نفسه في هذا الصدد هو ما إذا كانت القواعد العادية بشأن المسؤولية كافية أو ما إذا كانت المبادئ والقواعد الجديدة ضرورية لتوضيح المسؤولية القانونية لمختلف الجهات الفاعلة فيما يتعلق بالمسؤولية عن أفعال أو تقاعس الروبوت الذي لا يمكن عزو أسبابه إلى فاعل بشري معين، ولتحديد ما إذا كان بالإمكان تجنب أفعال أو تقاعس الروبوت التي تسببت في الضرر؛
ج.د. بينما يثير استقلالية الروبوتات في نهاية المطاف مسألة طبيعتها في ضوء الفئات القانونية الحالية أو الحاجة إلى إنشاء فئة جديدة لها خصائصها وتأثيراتها الخاصة؛
ه.و. في حين أنه بموجب الإطار القانوني الحالي، لا يمكن تحميل الروبوتات على هذا النحو المسؤولية عن أفعالها أو تقاعسها في حالة حدوث ضرر لأطراف ثالثة؛ أن قواعد المسؤولية المعمول بها تغطي الحالات التي يمكن أن يُعزى فيها سبب تصرفات الروبوت أو تقاعسه إلى جهة بشرية محددة مثل الشركة المصنعة أو المشغل أو المالك أو المستخدم وحيث قد يكون هذا الممثل قد توقع السلوك الضار للروبوت وتجنبها ؛ بينما، بالإضافة إلى ذلك، يمكن تحميل الشركات المصنعة أو المشغلين أو المالكين أو المستخدمين مسؤولية موضوعية عن أفعال الروبوت أو عدم فعله؛
ح.ط. في حين أن الإطار القانوني الحالي بشأن مسؤولية المنتج، والذي بموجبه تكون الشركة المصنعة للمنتج مسؤولة في حالة حدوث خلل ، والقواعد التي تحدد المسؤولية في حالة الإجراءات الضارة، والتي بموجبها يكون مستخدم المنتج مسؤولاً عن أي سلوك التسبب في الضرر، ينطبق على الضرر الناجم عن الروبوت أو الذكاء الاصطناعي؛
ك.ل. في حين أنه في حالة تمكن الروبوت من اتخاذ قرارات بشكل مستقل، فإن القواعد المعتادة لن تكون كافية لتحديد المسؤولية القانونية عن الضرر الناجم عن الروبوت، لأنها لن تجعل من الممكن تحديد الطرف المسؤول عن دفع التعويضات أو مطالبة هذا الطرف بإصلاح الضرر الناجم؛
م.ن. في حين أن أوجه القصور في الإطار القانوني المعمول به حاليًا هي براءات الاختراع في مجال المسؤولية التعاقدية، نظرًا لوجود آلات مصممة لاختيار المقاول المشترك ، والتفاوض على الشروط التعاقدية، وإبرام العقد، وتحديد متى وكيف يتم تطبيقه. يجعل العقد القواعد المعتادة غير قابلة للتطبيق ؛ في حين أن هذا يسلط الضوء على الحاجة إلى تطوير قواعد جديدة وفعالة وحديثة ، تتكيف مع التطورات والابتكارات التكنولوجية التي ظهرت مؤخرًا والتي يتم استخدامها في السوق؛
ز.ح. في حين أنه فيما يتعلق بالمسؤولية غير التعاقدية، فإن التوجيه 85/374 / EEC يغطي فقط الضرر الناجم عن عيوب في تصنيع الروبوت، بشرط أيضًا أن تقدم الضحية دليلًا على الضرر الفعلي، والعيب في المنتج والعلاقة السببية بين الضرر والعيب، وبالتالي فإن الإطار القائم على المسؤولية أو المسؤولية الصارمة دون خطأ قد لا يكون كافياً ؛
ن.س. بينما، على الرغم من نطاق التوجيه 85/374 / EEC، فإن الإطار القانوني المعمول به حاليًا لن يكون كافياً لتغطية الضرر الناجم عن الجيل الجديد من الروبوتات ، حيث يمكن تجهيزها بالتكيف والتعلم مما يؤدي إلى درجة معينة عدم القدرة على التنبؤ في سلوكهم، بالنظر إلى أن هذه الروبوتات ستستخلص بشكل مستقل دروسًا من تجاربها، والتي تختلف من واحد إلى آخر ، وتتفاعل مع بيئتها بطريقة فريدة وغير متوقعة؛

المبادئ العامة المتعلقة بتطوير الروبوتات والذكاء الاصطناعي للاستخدام المدني:
1- يدعو اللجنة إلى اقتراح تعريفات مشتركة على مستوى الاتحاد للأنظمة السيبرانية الفيزيائية والأنظمة المستقلة والروبوتات المستقلة والذكية، بالإضافة إلى فئاتها الفرعية، مع مراعاة الخصائص التالية للروبوتات الذكية:
- اكتساب الاستقلالية من خلال أجهزة الاستشعار و / أو تبادل البيانات مع البيئة (التوصيل البيني) وتبادل هذه البيانات وتحليلها؛
- القدرة على التعلم الذاتي من خلال التجربة والتفاعلات (معيار اختياري)؛
- وجود غلاف مالي، حتى لو تم تقليله؛
- القدرة على تكييف سلوكه وأفعاله مع بيئته؛
- غير الحية بالمعنى البيولوجي للمصطلح؛
2- يعتقد أنه يمكن إنشاء نظام أوروبي متقدم لتسجيل الروبوتات داخل السوق الداخلية للاتحاد الأوروبي إذا كان ذلك ملائمًا وضروريًا لفئات محددة من الروبوتات؛ يطلب من اللجنة تحديد معايير تصنيف الروبوتات التي يجب أن يكون تسجيلها إلزامياً؛ في هذا السياق، يدعو المفوضية إلى التفكير في مدى استصواب إسناد إدارة نظام التسجيل والسجل إلى وكالة محددة تابعة للاتحاد الأوروبي مسؤولة عن الروبوتات والذكاء الاصطناعي؛
3 - تؤكد أن تطوير التكنولوجيا الروبوتية ينبغي أن يهدف في المقام الأول إلى استكمال القدرات البشرية وليس استبدالها ؛ تعتبر أنه من الضروري، في سياق تطوير الروبوتات والذكاء الاصطناعي، ضمان إمكانية ممارسة التحكم البشري في جميع الأوقات على الآلات الذكية ؛ يشدد على أنه ينبغي إيلاء اهتمام خاص لحقيقة أن العلاقة العاطفية من المحتمل أن تتطور بين البشر والروبوتات ، وخاصة بين الأشخاص الضعفاء (الأطفال ، وكبار السن ، والأشخاص ذوي الإعاقة)، ويلفت الانتباه إلى القضايا التي يثيرها الخطورة الجسدية المحتملة. أو العواقب العاطفية لمثل هذا الارتباط العاطفي للمستخدم البشري؛
4 - يؤكد أن أي استراتيجية على مستوى الاتحاد الأوروبي يمكن أن تسهل التنمية عن طريق تجنب تجزئة السوق الداخلية ، وفي نفس الوقت تؤكد على أهمية مبدأ الاعتراف المتبادل في الاستخدام عبر الحدود للروبوتات والأنظمة الروبوتية ؛ يشير إلى أن الاختبار والاعتماد ومنح تصاريح التسويق لا ينبغي أن يتم في أكثر من دولة عضو واحدة ؛ يصر على أن هذا النهج يجب أن يسير جنبًا إلى جنب مع المراقبة الفعالة للسوق؛
5 - يؤكد أهمية اتخاذ تدابير لدعم المؤسسات الصغيرة والمتوسطة الحجم والشركات الناشئة في قطاع الروبوتات التي تفتح قطاعات جديدة في السوق في هذا المجال أو تستخدم الروبوتات نفسها؛
البحث والابتكار:
6 - تؤكد أن العديد من تطبيقات الروبوتات لا تزال في المرحلة التجريبية ؛ يرحب بحقيقة أن عددًا متزايدًا من المشاريع البحثية يتم تمويلها من قبل الدول الأعضاء والاتحاد. يرى أنه من الضروري أن يظل الاتحاد الأوروبي والدول الأعضاء فيه ، من خلال التمويل العام، في طليعة البحث في مجالات الروبوتات والذكاء الاصطناعي ؛ يدعو المفوضية والدول الأعضاء إلى تعزيز الأدوات المالية ، بما في ذلك الشراكات بين القطاعين العام والخاص، التي تهدف إلى دعم المشاريع البحثية في مجالات الروبوتات وتكنولوجيا المعلومات والاتصالات، وتطبيق مبادئ العلوم المفتوحة والأخلاقية والمسؤولة في سياساتها البحثية التعاون؛ يشدد على أهمية تخصيص موارد كافية للبحث عن حلول للمعضلات الاجتماعية والأخلاقية والقانونية والاقتصادية التي تثيرها التطورات في التكنولوجيا وتطبيقاتها؛
7 - يدعو المفوضية والدول الأعضاء إلى تعزيز برامج البحث، وتشجيع البحث في المخاطر المحتملة والآفاق الطويلة الأجل للذكاء الاصطناعي وتكنولوجيات الروبوتات، وتشجيع فتح حوار عام منظم بشأن الآثار المترتبة على التنمية من التقنيات المعنية في أقرب وقت ممكن؛ يدعو المفوضية إلى تعزيز ، في سياق استعراض منتصف المدة للإطار المالي متعدد السنوات، الدعم الممنوح لبرنامج SPARC ، الممول في إطار Horizon 2020 ؛ يدعو المفوضية والدول الأعضاء إلى توحيد الجهود لضمان الانتقال السلس والمراقب بعناية من البحث إلى التسويق والاستخدام في السوق لهذه التقنيات، مع مراعاة تقييمات السلامة المناسبة بالشكل المناسب ، امتثالاً للمبدأ الاحترازي؛
8 - يشدد على أن البنية التحتية الرقمية القادرة على توفير التوصيلية الشاملة ضرورية إذا أردنا الابتكار في مجال الروبوتات والذكاء الاصطناعي ودمج هذه التقنيات في قلب الاقتصاد والمجتمع؛ يدعو المفوضية إلى تحديد إطار يغطي احتياجات الاتصال اللازمة لمستقبل الاتحاد الرقمي ويضمن أن يتم الوصول إلى شبكات النطاق العريض وشبكات الجيل الخامس وفقًا لمبدأ الحياد من الإنترنت؛
9- يعتقد أن قابلية التشغيل البيني بين أنظمة الحوسبة السحابية والأجهزة والخدمات، على أساس الأمن والخصوصية حسب التصميم، أمر ضروري لتمكين تدفق البيانات في الوقت الحقيقي لجعل الروبوتات والذكاء الاصطناعي أكثر قابلية للتوسع واستقلالية؛ يدعو المفوضية إلى تعزيز بيئة مفتوحة ، بما في ذلك من خلال المعايير والمنصات المفتوحة ، ونماذج الترخيص المبتكرة والشفافية، من أجل تجنب آثار الانغلاق في أنظمة الملكية التي تحد من قابلية التشغيل البيني؛
المبادئ الأخلاقية:
10- يلاحظ أن جميع إمكانات التحرر التي يخفيها استخدام الروبوتات يجب أن تقاس مقابل مجموعة من التوترات أو المخاطر وينبغي تقييمها بجدية من منظور السلامة والصحة والأمن البشري والحرية والخصوصية والنزاهة والكرامة وتقرير المصير وعدم التمييز وحماية البيانات الشخصية؛
11 - يرى أنه من الضروري أن يقوم الاتحاد بتحديث وإكمال إطاره القانوني الحالي، عند الضرورة، على أساس المبادئ الأخلاقية المعيارية التي يمكن أن تعكس مدى تعقيد موضوع الروبوتات وآثاره الاجتماعية العديدة والطبية والأخلاقية البيولوجية؛ يعتقد أنه من الضروري وضع إطار مرجعي أخلاقي واضح وصارم وفعال لتطوير وتصميم وتصنيع واستخدام وتعديل الروبوتات التي تكمل بشكل مفيد التوصيات القانونية لهذا التقرير وكذلك المكتسبات الوطنية والاتحادات القائمة؛ يقترح، كملحق لهذا القرار ، مثل هذا الإطار، في شكل ميثاق يؤسس مدونة سلوك لمهندسي الروبوتات، وعلم الأخلاق للجان أخلاقيات البحث عند فحص بروتوكولات الروبوتات، وتراخيص نموذجية للمطورين والمستخدمين؛
12- تصر على مبدأ الشفافية، أي أنه ينبغي أن يكون من الممكن دائماً تقديم مبرر منطقي لأي قرار يُتخذ بمساعدة الذكاء الاصطناعي الذي يحتمل أن يكون له تأثير كبير على حياة شخص واحد أو أكثر ؛ يعتقد أنه يجب أن يكون من الممكن دائمًا ترجمة حسابات نظام الذكاء الاصطناعي إلى شكل مفهوم للبشر ؛ يعتقد أن الروبوتات المتقدمة يجب أن تكون مجهزة "بصندوق أسود" يحتوي على بيانات عن كل عملية تنفذها الآلة، بما في ذلك المنطق الذي ساهم في صنع القرار؛
13 - تؤكد أن الإطار المرجعي الأخلاقي ينبغي أن يقوم على مبادئ الإحسان وعدم الإساءة والاستقلال الذاتي والعدالة، وعلى المبادئ والقيم المنصوص عليها في المادة 2 من معاهدة الاتحاد الأوروبي وميثاق الحقوق الأساسية للدولة الاتحاد الأوروبي (المشار إليه فيما يلي باسم "الميثاق")، مثل الكرامة الإنسانية والمساواة والعدالة والإنصاف وعدم التمييز والموافقة المستنيرة واحترام الخصوصية والحياة الأسرية وحماية البيانات، فضلاً عن المبادئ والقيم التأسيسية الأخرى لقانون الاتحاد الأوروبي، مثل عدم وصمة العار والشفافية والاستقلالية والمسؤولية الفردية والمساءلة الاجتماعية ، وحول الممارسات القائمة ومدونات الأخلاق؛
14- يعتقد أنه ينبغي إيلاء اهتمام خاص للروبوتات التي تشكل تهديدا خطيرا للخصوصية، بسبب موقعها في الأماكن المحمية تقليديا والخاصة وقدرتها على استخراج ونقل المعلومات المتعلقة بالبيانات الشخصية والحساسة ؛
وكالة أوروبية:
15- يرى أنه من الضروري تعزيز التعاون بين الدول الأعضاء والمفوضية من أجل ضمان إنشاء قواعد متماسكة عبر الحدود داخل الاتحاد تعزز التعاون بين الصناعات الأوروبية وتجعل من الممكن نشر جميع أنحاء الاتحاد فقط الروبوتات التي تلبي المتطلبات الحالية معايير السلامة والأمن واحترام المبادئ الأخلاقية المنصوص عليها في قانون الاتحاد؛
16 - يدعو المفوضية إلى النظر في إنشاء وكالة أوروبية مسؤولة عن الروبوتات والذكاء الاصطناعي تكون قادرة على توفير الخبرة الفنية والأخلاقية والتنظيمية اللازمة لدعم الجهات الفاعلة العامة المعنية ، على مستوى الاتحاد ومستوى الاتحاد الدول الأعضاء، في إطار جهودها لضمان رد فعل سريع وأخلاقي ومستنير للتحديات والآفاق الجديدة ، ولا سيما عبر الحدود، للتقدم التقني في مجال الروبوتات ، التي يواجهها قطاع النقل ، على سبيل المثال؛
17 - يعتقد أن الإمكانات ، ولكن المشاكل المرتبطة باستخدام الروبوتات وديناميات الاستثمار الحالية تبرر تزويد هذه الوكالة بميزانية مناسبة ولديها من بين موظفيها خبراء في التنظيم وخبراء تقنيون خارجيون وخبراء أخلاقيات خارجيون مكرسة لرصد تطبيقات الروبوتات ، من منظور متعدد القطاعات ومتعدد التخصصات، وتحديد المعايير التي تستند إليها أفضل الممارسات ، وعند الاقتضاء ، التوصية بالتدابير التنظيمية، وتحديد مبادئ جديدة وحل مشاكل حماية المستهلك المحتملة والقضايا النظامية؛ يطلب من المفوضية والوكالة المعنية، في حالة إنشائها ، تقديم تقرير سنوي إلى البرلمان الأوروبي حول آخر التطورات في مجال الروبوتات ، وكذلك الإجراءات المطلوبة على أساس سنوي؛
حقوق الملكية الفكرية وتداول البيانات:
18 - تلاحظ أنه لا يوجد حكم قانوني ينطبق على الروبوتات تحديدًا، ولكن يمكن تطبيق النظم القانونية والمذاهب الحالية كما هي في هذا المجال، على الرغم من أن بعض الجوانب تتطلب فحصًا محددًا ؛ يدعو المفوضية إلى دعم نهج مستعرض ومحايد تكنولوجياً للملكية الفكرية، والذي ينطبق على مختلف القطاعات المعنية بتطبيق الروبوتات؛
19 - يدعو المفوضية والدول الأعضاء إلى ضمان امتثال قواعد القانون المدني المتعلقة بالروبوتات للائحة العامة لحماية البيانات ومبادئ الضرورة والتناسب ؛ يدعو المفوضية والدول الأعضاء إلى مراعاة التطور التكنولوجي السريع في مجال الروبوتات ، بما في ذلك ما يتعلق بتطوير الأنظمة السيبرانية الفيزيائية، والتأكد من مواكبة قانون الاتحاد للتقدم في التكنولوجيا والتكنولوجيا تعيين؛
20 - تؤكد أن الحق في احترام الحياة الخاصة والحق في حماية البيانات الشخصية، المنصوص عليه في المادتين 7 و 8 من الميثاق والمادة 16 من معاهدة عمل الاتحاد الأوروبي، ينطبق على جميع مجالات الروبوتات وأن الإطار القانوني للاتحاد الأوروبي فيما يتعلق بحماية البيانات يجب أن يحترم بالكامل؛ يدعو، في هذا الصدد، إلى توضيح القواعد والمعايير المطبقة على استخدام الكاميرات وأجهزة الاستشعار المدمجة في الروبوتات في سياق تنفيذ اللائحة العامة لحماية البيانات؛ يدعو المفوضية إلى ضمان الامتثال لمبادئ حماية البيانات، مثل الخصوصية حسب التصميم وبشكل افتراضي، تقليل البيانات إلى الحد الأدنى وتحديد الغرض ، لتوفير آليات تحكم شفافة لأصحاب البيانات، فضلاً عن سبل الانتصاف المناسبة، وفقًا لقانون حماية البيانات في الاتحاد، وضمان تعزيز التوصيات والمعايير المناسبة وإدماجها في سياسات الاتحاد؛
21 - تؤكد أن التدفق الحر للبيانات هو أحد أسس الاقتصاد الرقمي وتطوير الروبوتات والذكاء الاصطناعي؛ يؤكد أن المستوى العالي من الأمان لأنظمة الروبوتات، بما في ذلك أنظمة البيانات الداخلية وتدفقات البيانات، أمر ضروري للاستخدام السليم للروبوتات والذكاء الاصطناعي؛ يشدد على أن حماية شبكات الروبوت والذكاء الاصطناعي المترابطة يجب أن تكون مضمونة لمنع الانتهاكات الأمنية المحتملة؛ يؤكد أن المستوى العالي من الأمن وحماية البيانات الشخصية، وكذلك احترام الخصوصية في الاتصال بين البشر والروبوتات أو أشكال الذكاء الاصطناعي أمر ضروري؛ يؤكد على مسؤولية مصممي الروبوتات والذكاء الاصطناعي لتصميم المنتجات بطريقة آمنة ومأمونة ومناسبة للاستخدام المقصود؛ يدعو المفوضية والدول الأعضاء إلى دعم وتشجيع تطوير التقنيات الضرورية، بما في ذلك الأمن حسب التصميم.
التقييس والسلامة والأمن
22 - تشدد على أن مسألة وضع المعايير ومنح إمكانية التشغيل المتبادل أمر بالغ الأهمية للمنافسة المستقبلية في مجال الذكاء الاصطناعي وتكنولوجيات الروبوتات؛ يدعو المفوضية إلى مواصلة عملها على مواءمة المعايير الفنية على المستوى الدولي، ولا سيما بالتعاون مع هيئات التقييس الأوروبية والمنظمة الدولية للتوحيد القياسي، من أجل تشجيع الابتكار وتجنب تجزئة السوق الداخلية وضمان مستوى عالٍ من سلامة المنتجات وحماية المستهلك، بما في ذلك من خلال تحديد الحد الأدنى من معايير السلامة في مكان العمل، عند الاقتضاء؛ يؤكد على أهمية الهندسة العكسية القانونية والمعايير المفتوحة لتعظيم قيمة الابتكار وضمان أن الروبوتات يمكنها التواصل مع بعضها البعض؛ يرحب ، في هذا الصدد، بإنشاء لجان فنية خاصة ، مثل ISO / TC 299 Robotics، مخصصة حصريًا لتطوير المعايير في مجال الروبوتات؛
23 - تؤكد أنه من الضروري اختبار الروبوتات في ظروف حقيقية من أجل تحديد وتقييم المخاطر التي قد تشكلها ودرجة تقدمها التقني إلى ما بعد المرحلة التجريبية البحتة في المختبر؛ يشير ، في هذا الصدد، إلى أن اختبار الروبوتات في ظروف حقيقية، لا سيما في المدن وعلى الطرق، يطرح العديد من المشاكل، بما في ذلك العقبات التي تعرقل تطوير مراحل الاختبار هذه وتتطلب آلية للمراقبة واستراتيجية فعالة؛ يطلب من المفوضية تحديد معايير موحدة للدول الأعضاء يمكن استخدامها لتحديد المجالات التي يُسمح فيها بإجراء التجارب مع الروبوتات ، مع احترام المبدأ الوقائي؛


وسائل النقل المستقلة:
أ) المركبات ذاتية القيادة:
24 - تشدد على أن النقل المستقل يشمل جميع أشكال وسائل النقل الموجهة عن بعد والآلية والمتصلة والمستقلة بالطرق والسكك الحديدية والجو والملاحة، بما في ذلك المركبات والقطارات والسفن والعبارات والطائرات بدون طيار، وكذلك جميع أشكال التطوير المستقبلية والابتكارات في هذا المجال.
25 - يعتقد أن قطاع السيارات هو القطاع الأكثر حاجة إلى قواعد فعالة، سواء على المستوى الدولي أو على مستوى الاتحاد الأوروبي، بحيث يمكن للمركبات المؤتمتة والمستقلة أن تتطور عبر الحدود بطريقة تستغل الإمكانات الاقتصادية لهذه المركبات بشكل كامل و الاستفادة من الآثار الإيجابية للاتجاهات التكنولوجية؛ يؤكد أن تجزئة النهج التنظيمية من شأنه أن يعيق تطبيق وسائل النقل المستقلة ويقوض القدرة التنافسية الأوروبية؛
26 - يوجه الانتباه إلى حقيقة أن وقت رد فعل السائق في حالة الاستئناف غير المتوقع للسيطرة على السيارة له أهمية قصوى، وبالتالي يدعو الجهات الفاعلة المعنية إلى تخطيط قيم واقعية تكون حاسمة بالنسبة للأسئلة المتعلقة للأمان والمسؤولية؛
27 - يعتقد أن التحول إلى المركبات المستقلة سيكون له تداعيات في المجالات التالية: المسؤولية المدنية (المسؤولية والتأمين) ، والسلامة على الطرق، وجميع القضايا البيئية (مثل كفاءة الطاقة ، واستخدام التكنولوجيات ومصادر الطاقة)، وقضايا البيانات (الوصول إلى البيانات، وحماية البيانات ، والخصوصية ، ومشاركة البيانات، وما إلى ذلك)، وقضايا البنية التحتية لتكنولوجيا المعلومات والاتصالات (مثل التغطية المكثفة لوسائل الاتصال الفعالة والموثوقة)، والتوظيف (خلق الوظائف وتدميرها، وتدريب سائقي الشاحنات على استخدام المركبات الآلية ، إلخ. .)؛ يؤكد أن هناك حاجة إلى استثمارات كبيرة في البنية التحتية للطرق والطاقة وتكنولوجيا المعلومات والاتصالات؛ يدعو المفوضية إلى مراعاة ما ورد أعلاه في عملها على المركبات ذاتية القيادة.
28 - تشدد على الأهمية الحاسمة لموثوقية المعلومات المتعلقة بتحديد المواقع والوقت التي يوفرها برنامجا الملاحة عبر القمرين الصناعيين (الساتليت) الأوروبيان Galileo و EGNOS، لنشر المركبات المستقلة؛ يحث بهذا الصدد، على استكمال وإطلاق الأقمار الصناعية اللازمة لاستكمال نظام تحديد المواقع الأوروبي Galileo؛
29- يوجه الانتباه إلى القيمة المضافة الكبيرة للمركبات المستقلة للأشخاص ذوي القدرة المحدودة على الحركة، لأنها تتيح لهم المشاركة بشكل أكثر فعالية في النقل البري الفردي، وبالتالي تسهل حياتهم اليومية ؛
ب) الطائرات بدون طيار (أنظمة الطائرات الموجهة عن بعد ، RPAS):
30 - تحيط علما بالتقدم الكبير المحرز في تكنولوجيا الطائرات بدون طيار، ولا سيما في مجال عمليات البحث والإنقاذ؛ يؤكد على أهمية وجود إطار عمل للاتحاد الأوروبي ينطبق على الطائرات بدون طيار من أجل حماية سلامة وأمن وخصوصية مواطني الاتحاد الأوروبي، ويدعو المفوضية إلى تنفيذ التوصيات التي قدمها البرلمان الأوروبي في قراره المؤرخ 29 أكتوبر 2015 بشأن الاستخدام الآمن أنظمة الطائرات الموجهة عن بعد (RPAS)، والمعروفة باسم المركبات الجوية غير المأهولة (UAVs)، في مجال الطيران المدني (5) ؛ حث اللجنة على تقديم تقييمات للقضايا الأمنية المتعلقة بالاستخدام الواسع النطاق للطائرات بدون طيار. يدعو المفوضية إلى دراسة الحاجة إلى إدخال الالتزام بتزويد أنظمة الطائرات بدون طيار بنظام التتبع وتحديد الهوية الذي يتيح معرفة الموقع في الوقت الحقيقي للطائرات بدون طيار قيد الاستخدام ؛ يذكر أنه يجب ضمان اتساق وسلامة الطائرات بدون طيار من خلال التدابير المنصوص عليها في اللائحة (EC) رقم 216/2008 للبرلمان الأوروبي والمجلس ؛
روبوتات العناية الشخصية:
31 - تؤكد أن البحث والتطوير في مجال روبوتات رعاية المسنين أصبحا ، بمرور الوقت، أكثر انتشارا وأقل تكلفة، مما أوجد منتجات ذات قدرة وظيفية أكبر وقبول أفضل بين المستهلكين؛ يلاحظ النطاق الواسع لتطبيقات هذه التقنيات التي توفر الوقاية والمساعدة والمراقبة والتحفيز والدعم للمسنين والمعوقين والأشخاص المصابين بالخرف أو ضعف الإدراك أو فقدان الذاكرة؛
32 - تؤكد أن الاتصال البشري هو أحد الجوانب الأساسية للرعاية الشخصية؛ يعتقد أن استبدال الإنسان بالروبوتات يمكن أن يؤدي إلى نزع الصفة الإنسانية عن العناية الشخصية؛ تدرك، مع ذلك، أن الروبوتات يمكن أن تسهم في أداء بعض المهام الآلية في الرعاية الصحية وتسهيل عمل مساعدي الرعاية، وبالتالي تحسين الرعاية البشرية وجعل عملية إعادة التأهيل أكثر استهدافًا، مما سيسمح للفرق الطبية ومقدمي الرعاية بقضاء المزيد من الوقت في التشخيص و تحسين العلاجات يؤكد أنه على الرغم من أن الروبوتات لديها القدرة على تعزيز التنقل والتواصل الاجتماعي للأشخاص ذوي الإعاقة وكبار السن، فإن البشر سيظلون ضروريين في الرعاية وسيستمرون في تزويدهم بمصدر مهم وغير قابل للاستبدال تمامًا للتفاعل الاجتماعي؛
الروبوتات الطبية:
33 - تشدد على أهمية تزويد العاملين في مجال الرعاية الصحية، بمن فيهم الأطباء ومساعدي التمريض، بالتثقيف والتدريب والإعداد المناسبين من أجل ضمان أعلى مستوى ممكن من الكفاءة المهنية وحماية صحة المرضى؛ يشدد على الحاجة إلى تحديد الحد الأدنى من المتطلبات المهنية التي يجب أن يفي بها الجراح من أجل السماح له باستخدام الروبوتات الجراحية أثناء العملية؛ يعتبر أنه من الضروري احترام مبدأ الاستقلالية الخاضعة للإشراف للروبوتات، والتي بموجبها يظل التخطيط الأولي للرعاية والاختيار النهائي لتنفيذها دائمًا ضمن مجال صنع القرار للجراح؛ يؤكد على الأهمية الخاصة للتدريب، حتى يتمكن المستخدمون من التعرف على المتطلبات الفنية للمجال؛ يلفت الانتباه إلى ميل المرضى إلى التشخيص الذاتي بمساعدة الروبوت وبالتالي إلى الحاجة إلى تدريب الأطباء حتى يتمكنوا من إدارة حالات التشخيص الذاتي؛ يعتبر أن استخدام هذه التقنيات لا ينبغي أن يضعف أو يضر بالعلاقة بين الطبيب والمريض، ولكن على العكس من ذلك يجب أن يوفر للطبيب المساعدة في التشخيص و / أو الرعاية المقدمة للمريض، بهدف تقليل مخاطر الإنسان الخطأ وتحسين نوعية الحياة والعمر المتوقع؛
34 - تعتقد أن الروبوتات الطبية تستخدم بشكل متزايد في العمليات الجراحية عالية الدقة وفي أداء الإجراءات المتكررة؛ ترى أنه يمكنهم تحسين نتائج إعادة التأهيل وتقديم دعم لوجستي مفيد للغاية في المستشفيات ؛ يلاحظ أن الروبوتات الطبية لديها أيضًا القدرة على تقليل تكلفة الرعاية الصحية ، من خلال السماح لمهنة الطب بالتركيز أكثر على الوقاية أكثر من العلاج وعن طريق زيادة الميزانية المتاحة للتكيف بشكل أفضل مع احتياجات المرضى المتنوعة، من أجل التعليم المستمر للمهنيين الصحيين و للبحث؛
35 - يدعو المفوضية إلى ضمان سلامة إجراءات اختبار الأجهزة الطبية الروبوتية الجديدة، ولا سيما تلك المعدة للزرع في جسم الإنسان، قبل تاريخ تطبيق اللائحة (الاتحاد الأوروبي) 2017/745 المتعلقة بالأجهزة الطبية؛
إصلاح وتحسين وظائف عمل جسم الإنسان:
36 - يلاحظ التقدم الكبير الذي تم إحرازه والإمكانيات الهائلة للروبوتات في مجال إصلاح الأعضاء التالفة والوظائف الجسدية المتضائلة والتعويض عنها، ولكنه يلاحظ أيضا الأسئلة المعقدة التي أثيرت بشكل خاص من خلال إمكانيات تحسين جسم الإنسان والروبوتات الطبية وعلى وجه الخصوص ، من المحتمل أن تقوم الأنظمة الإلكترونية الفيزيائية بتعديل عميق لمفهومنا عن صحة جسم الإنسان السليم ، حيث يمكن ارتداء هذا الأخير مباشرة على جسم الإنسان أو زرعه فيه؛ يؤكد على أهمية إنشاء لجان أخلاقيات الروبوتات في المستشفيات ومؤسسات الرعاية الصحية الأخرى دون تأخير، مزودة بعدد كافٍ من الموظفين ، لفحص، من أجل المساعدة في حلها، أي قضايا أخلاقية شائكة وغير عادية تتعلق بالقضايا التي تؤثر على رعاية المرضى وعلاجهم؛ يطلب من المفوضية والدول الأعضاء وضع مبادئ توجيهية لإنشاء وتشغيل هذه اللجان؛
37 - تلاحظ أنه في مجال التطبيقات الطبية المنقذة للحياة مثل الأطراف الاصطناعية، ينبغي ضمان الوصول الدائم والمستدام للصيانة والتحسينات، ولا سيما تحديثات البرامج التي تعالج الأعطال ومواطن الضعف؛
38 - يوصي بإنشاء كيانات مستقلة موثوق بها تحتفظ بالوسائل اللازمة لتقديم الخدمات للأشخاص الذين يستخدمون معدات طبية حيوية أو متقدمة ، في شكل عمليات صيانة أو إصلاح، وكذلك في شكل تحسينات، بما في ذلك تحديثات البرامج ، على وجه الخصوص عندما لا يتم تقديم هذه الخدمات من قبل المورد الأصلي؛ تقترح، تحقيقا لهذه الغاية، إنشاء التزام للمصنعين بتقديم تعليمات تصميم كاملة ، إلى جانب كود المصدر، إلى هذه الكيانات المستقلة الموثوقة، بطريقة يمكن مقارنتها بالإيداع القانوني للمنشورات في مكتبة وطنية؛
39- يوجه الانتباه إلى الخطر الذي يشكله القرصنة أو إلغاء تنشيط أو محو ذاكرة الأنظمة الإلكترونية الفيزيائية المدمجة في جسم الإنسان ، والتي يمكن أن تعرض الصحة للخطر، أو في الحالات القصوى، حياة موضوع البيانات، وبالتالي تشدد على الأولوية التي ينبغي يجب توفير الحماية لهذه الأنظمة؛
40 - تؤكد أهمية ضمان تكافؤ فرص وصول الجميع إلى هذه الابتكارات والأدوات والتدخلات التكنولوجية ؛ يدعو المفوضية والدول الأعضاء إلى تعزيز تطوير التقنيات المساعدة من أجل تسهيل تطوير هذه التقنيات واستخدامها من قبل أولئك الذين يحتاجون إليها، وفقًا للمادة 4 من اتفاقية الأمم المتحدة لحقوق الأشخاص ذوي الإعاقة، الذي يعتبر الاتحاد حزبًا؛
التعليم والتوظيف:
41- يلفت الانتباه إلى توقعات اللجنة لعام 2020، والتي تفيد بأنه سيكون هناك نقص قدره 825000 متخصص في تكنولوجيا المعلومات والاتصالات في أوروبا بحلول ذلك التاريخ وأن 90٪ من الوظائف تتطلب قاعدة مهارات إلكترونية؛ يرحب بمبادرة المفوضية لاقتراح خارطة طريق للاستخدام المحتمل ومراجعة إطار المهارات الرقمية ولوصف المهارات الرقمية لجميع مستويات التعلم؛ يدعو المفوضية إلى تقديم دعم كبير لتنمية المهارات الرقمية في جميع الفئات العمرية، بغض النظر عن حالة التوظيف ، مما سيمثل خطوة أولى نحو مواءمة العرض بشكل أفضل مع الطلب في سوق العمل؛ يشير إلى أن النمو في مجال الروبوتات يجعل من الضروري للدول الأعضاء تطوير أنظمة تدريب وتعليم أكثر مرونة بحيث تلبي استراتيجيات التعلم احتياجات اقتصاد الروبوتات؛
42 - تعتقد أنه من أجل مصلحة القطاع الرقمي والنساء أنفسهن والاقتصاد الأوروبي، ينبغي تشجيع المزيد من الشابات على اختيار مهنة في القطاع الرقمي وإعطاء مزيد من فرص العمل للنساء في هذا القطاع ؛ يدعو المفوضية والدول الأعضاء إلى إطلاق مبادرات لدعم المرأة في مجال تكنولوجيا المعلومات والاتصالات وتحسين المهارات الرقمية للمرأة؛
43 - يدعو اللجنة إلى البدء في تحليل ورصد اتجاهات العمالة المتوسطة والطويلة الأجل عن كثب ، مع إيلاء اهتمام خاص لاستحداث الوظائف وإزاحتها وفقدانها في مجالات المهارات المختلفة، لمعرفة المجالات التي يتزايد فيها استخدام الروبوتات تخلق فرص عمل وفي المجالات التي تقضي عليها؛
44- يبرز أهمية توقع التغييرات التي ستحدثها الروبوتات في المجتمع، بالنظر إلى الآثار المحتملة لتطوير ونشر الروبوتات والذكاء الاصطناعي؛ يدعو المفوضية إلى النظر في عدة فرضيات ونتائجها على استدامة أنظمة الضمان الاجتماعي في الدول الأعضاء؛
45 - تشدد على أهمية المهارات المرنة والمهارات الاجتماعية والإبداعية والرقمية المرنة في التعليم؛ مقتنع بأنه بالإضافة إلى نقل المعرفة النظرية في المدرسة، يتطلب التعلم مدى الحياة نشاطًا مدى الحياة؛
46 - تلاحظ الإمكانات الهائلة للروبوتات في تحسين السلامة في العمل، حيث إنها ستجعل من الممكن تكليف الروبوتات بعدد من المهام الخطرة والضارة التي من شأنها بالتالي تجنب البشر؛ يلاحظ ، مع ذلك، أن الروبوتات من المحتمل أيضًا أن تجلب مجموعتها الخاصة من المخاطر الجديدة، بسبب زيادة التفاعلات بين البشر والروبوتات في مكان العمل؛ يؤكد في هذا الصدد، على أهمية تطبيق قواعد صارمة، تأخذ بعين الاعتبار التطور المستقبلي للروبوتات ، على التفاعلات بين البشر والروبوتات، من أجل ضمان، في مكان العمل، السلامة والصحة واحترام الحقوق الأساسية؛
التأثيرات البيئية:
47 - تلاحظ أنه ينبغي تطوير مجالات الروبوتات والذكاء الاصطناعي بطريقة تحد من الأثر البيئي من خلال استهلاك الطاقة بكفاءة، وتشجيع استخدام الطاقات المتجددة لتحقيق الكفاءة في استخدام الطاقة، واستخدام كميات منخفضة من المواد، و الحد من النفايات (بما في ذلك النفايات الكهربائية والإلكترونية) وكذلك إمكانيات الإصلاح؛ شجع المفوضية، بالتالي، على تضمين مبادئ الاقتصاد الدائري في جميع سياسات الاتحاد الأوروبي في مجال الروبوتات؛ يلاحظ أن استخدام الروبوتات سيكون له أيضًا تأثير إيجابي على البيئة، لا سيما في مجالات الزراعة والإمداد بالغذاء والنقل، ولا سيما من خلال استخدام الآلات الصغيرة وتقليل الأسمدة والطاقة والمياه، وكذلك من خلال الزراعة الدقيقة وتحسين المسار؛
48 - تؤكد أن النظم السيبرانية الفيزيائية ستؤدي إلى إنشاء أنظمة وبنية تحتية للطاقة قادرة على التحكم في تدفق الكهرباء من المنتج إلى المستهلك، وكذلك إنشاء "مستهلكين" للطاقة ينتجون الطاقة ويستهلكونها في الوقت نفسه؛ يؤكد الفوائد الرئيسية التي ستعود على البيئة؛
المسئولية:
49- يعتقد أن المسؤولية المدنية عن الأضرار التي تسببها الروبوتات هي قضية حاسمة تحتاج إلى تحليل ومعالجة على مستوى الاتحاد الأوروبي من أجل ضمان نفس المستوى من الكفاءة والشفافية والاتساق في تنفيذ اليقين القانوني عبر الاتحاد، من أجل تعود بالنفع على المواطنين والمستهلكين والشركات؛
50- يشير إلى أن تطوير تكنولوجيا الروبوتات سيتطلب فهماً أفضل للأرضية المشتركة اللازمة للنشاط المشترك بين الإنسان والروبوت، والتي ينبغي أن تستند إلى علاقتين أساسيتين مترابطتين هما القدرة على التنبؤ والقابلية للتوجيه؛ يؤكد أن هاتين العالقتين المترابطتين أساسيتان في تحديد المعلومات التي يجب مشاركتها بين البشر والروبوتات وفي تحديد كيفية إنشاء أرضية مشتركة بين البشر والروبوتات من أجل تنفيذ نشاط إنساني مشترك منسجم؛
51 - يدعو اللجنة إلى أن تقدم، على أساس المادة 114 من معاهدة عمل الاتحاد الأوروبي، اقتراحا بشأن صك تشريعي بشأن الجوانب القانونية لتطوير واستخدام الروبوتات والذكاء الاصطناعي في 10 أو أفق 15 سنة، مقترنًا بالأدوات غير التشريعية، مثل المبادئ التوجيهية ومدونات السلوك، كما هو مذكور في التوصيات الواردة في المرفق؛
52 - تعتقد أنه مهما كان الحل القانوني المختار في الصك التشريعي المقبل بشأن المسؤولية المدنية عن الأضرار التي تسببها الروبوتات في حالات غير الضرر المادي، فإن ذلك الصك لا ينبغي بأي حال من الأحوال أن يحد من نوع أو مدى الضرر الذي قد يخضع للتعويض، ولا ينبغي أن يحد من طبيعة هذا التعويض ، فقط على أساس أن الضرر ناجم عن جهة غير بشرية؛
53 - تعتقد أن الصك التشريعي المقبل ينبغي أن يستند إلى تقييم متعمق تجريه اللجنة، والذي ينبغي أن يحدد الاستراتيجية التي يتعين تطبيقها، أو تلك القائمة على المسؤولية الصارمة أو تلك القائمة على إدارة المخاطر؛
54 - تلاحظ في الوقت نفسه أن مبدأ المسؤولية الصارمة لا يتطلب سوى إثبات الضرر الناجم والعلاقة السببية بين الضرر الذي لحق بالطرف المتضرر والتشغيل الضار للروبوت؛
55 - تلاحظ أن النهج القائم على إدارة المخاطر لا يركز على الشخص "الذي تصرف بإهمال" بصفته المسؤول الفردي، ولكن على الشخص القادر، في ظروف معينة، على تقليل المخاطر إلى الحد الأدنى وإدارة الآثار السلبية؛
56 - ترى أنه، من حيث المبدأ، بمجرد تحديد الأطراف المسؤولة في نهاية المطاف، ينبغي أن تكون مسؤوليتها متناسبة مع المستوى الفعلي للتعليمات المعطاة للروبوت واستقلالية الروبوت، بحيث أنه كلما كان الروبوت أكثر استقلالية، زاد حجمه القدرة على التعلم ، وكلما طالت فترة تدريبه، يجب أن تكون مسؤولية الشخص الذي قام بتدريبه أكبر؛ يلاحظ على وجه الخصوص أنه عندما يتعلق الأمر بتحديد المسؤول الحقيقي عن السلوك الضار للروبوت، لا ينبغي الخلط بين المهارات المكتسبة من قبل الروبوت أثناء تدريبه والمهارات التي تعتمد بشكل صارم على قدرته على التعلم بطريقة مستقلة؛ يلاحظ كذلك أنه، على الأقل كما هو الحال حاليًا، يجب أن تقع المسؤولية على عاتق الإنسان وليس على الروبوت؛
57 - تشير إلى أن الحل الممكن، الذي يواجه تعقيد المسؤولية عن الأضرار التي تسببها الروبوتات المستقلة بشكل متزايد، يمكن أن يكمن في إنشاء مخطط تأمين إلزامي، كما هو الحال بالفعل، في جملة أمور، للسيارات؛ يشير مع ذلك، إلى أنه على عكس نظام التأمين على المركبات على الطرق، والذي يغطي تصرفات وتقاعس سائقي السيارات، يجب أن يأخذ نظام التأمين الآلي في الاعتبار جميع الالتزامات المحتملة من أحد طرفي السلسلة إلى الطرف الآخر؛
58 - تعتقد أنه، كما هو الحال بالنسبة للسيارات، يمكن استكمال مخطط التأمين هذا بصندوق، من أجل ضمان التعويض حتى في حالة عدم وجود غطاء؛ يدعو صناعة التأمين إلى تطوير منتجات جديدة وأنواع جديدة من العروض، تتكيف مع التطورات في مجال الروبوتات؛
59 - تدعو اللجنة، عند إجراء تقييم لأثر صكها التشريعي المقبل، إلى دراسة وتقييم ومراعاة نتائج جميع الحلول القانونية الممكنة، مثل:
أ) إنشاء نظام تأمين إلزامي، حيث يكون مبررًا وضروريًا لفئات معينة من الروبوتات، والتي بموجبها، كما هو الحال بالفعل بالنسبة للسيارات، أو مصنعي أو مالكي الروبوتات سيُطلب منهم حمل بوليصة تأمين تغطي الضرر المحتمل الناجم عن عمل الروبوتات.
ب) إنشاء صندوق تعويض تكون وظيفته ضمان التعويض، عندما لا يغطي التأمين الضرر الناجم عن الروبوت ؛
ج) إمكانية قيام المُصنِّع أو المبرمج أو المالك أو المستخدم بالمساهمة في صندوق تعويض أو الاشتراك في تأمين من أجل ضمان التعويض عن الضرر الناجم عن الروبوت، وبالتالي الاستفادة من المسؤولية المحدودة،
د) الاختيار بين إنشاء صندوق عام لجميع الروبوتات الذكية المستقلة أو إنشاء صندوق فردي لكل فئة من فئات الروبوت، وكذلك الاختيار بين دفع مبلغ مقطوع عند وضع الروبوت في السوق والمدفوعات المنتظمة طوال حياة الروبوت؛
هـ) إنشاء رقم تسجيل فردي، يتم إدخاله في سجل اتحاد معين ، حتى تتمكن دائمًا من ربط الروبوت بالصندوق الذي يعتمد عليه؛ سيسمح هذا الرقم لأي شخص يتفاعل مع الروبوت بمعرفة طبيعة الصندوق ، وحدود المسؤولية في حالة تلف الممتلكات ، وأسماء ووظائف المساهمين وأي معلومات أخرى ذات صلة؛
و) إنشاء شخصية قانونية محددة للروبوتات في نهاية المطاف، بحيث يمكن اعتبار الروبوتات المستقلة الأكثر تطورًا على الأقل أشخاصًا إلكترونيين مسؤولين، وملتزمين بإصلاح أي ضرر يلحق بطرف ثالث ؛ سيكون من الممكن إضفاء شخصية إلكترونية على أي روبوت يتخذ قرارات مستقلة أو يتفاعل بشكل مستقل مع أطراف ثالثة ؛
الجوانب الدولية:
60 - تلاحظ أنه على الرغم من عدم وجود حاجة فورية لإجراء إصلاح شامل لتكييفها مع وجود المركبات المستقلة ، فإن القواعد العامة للقانون الدولي الخاص بشأن حوادث الطرق المطبقة داخل الاتحاد ، وهو تبسيط للنظام المزدوج الذي يجعله الآن من الممكن تحديد القانون المعمول به (النظام المستند إلى اللائحة (EC) رقم 864/2007 للبرلمان الأوروبي والمجلس واتفاقية لاهاي المؤرخة 4 مايو 1971 بشأن القانون المطبق على حوادث المرور على الطرق) تحسين اليقين القانوني والحد من إمكانيات اختيار التشريعات الأقل صرامة؛
61 - ترى أنه من الضروري النظر في تعديل بعض الاتفاقات الدولية مثل اتفاقية فيينا المؤرخة 8 تشرين الثاني / نوفمبر 1968 بشأن المرور على الطرق واتفاقية لاهاي بشأن القانون المطبق على حوادث المرور على الطرق؛
62 - تتوقع من اللجنة أن تضمن تطبيق الدول الأعضاء للقانون الدولي، ولا سيما اتفاقية فيينا بشأن حركة المرور على الطرق، التي ينبغي، علاوة على ذلك، تعديلها، بطريقة متسقة للسماح باستخدام المركبات ذاتية القيادة، وتدعو اللجنة، الدول الأعضاء والصناعة لتحقيق أهداف إعلان أمستردام في أقرب وقت ممكن؛
63 - تشجع بقوة المجتمع الدولي ، تحت رعاية الأمم المتحدة، على العمل معا للنظر بعناية في القضايا المجتمعية، فضلا عن التحديات الأخلاقية والقانونية، ثم وضع معايير تنظيمية؛
64 - يشدد على أن القيود والشروط المنصوص عليها في اللائحة (EC) رقم 428/2009 الصادرة عن البرلمان الأوروبي والمجلس (8) المتعلقة بالتجارة في المواد ذات الاستخدام المزدوج (السلع والبرمجيات والتكنولوجيا التي يمكن استخدامها لكليهما العسكرية والمدنية و / أو التي يمكن أن تسهم في انتشار أسلحة الدمار الشامل)، يجب أن تنطبق أيضًا على تطبيقات الروبوتات؛
الاعتبارات النهائية:
65 - يدعو المفوضية ، على أساس المادة 225 من معاهدة عمل الاتحاد الأوروبي ، إلى أن تقدم ، على أساس المادة 114 من معاهدة عمل الاتحاد الأوروبي ، مقترحاً توجيهياً بشأن قواعد القانون على الروبوتات التي تتبع التوصيات الواردة في الملحق؛
66- تؤكد أن هذه التوصيات تحترم الحقوق الأساسية ومبدأ التبعية؛
67- يعتبر أن الاقتراح المطلوب لن يكون له آثار مالية إلا إذا تم إنشاء وكالة أوروبية جديدة؛
68- يوجه رئيسه بإحالة هذا الاقتراح والتوصيات الواردة في المرفق إلى اللجنة والمجلس.
المبحث الخامس: ترجمة لمرفق قرار البرلمان الأوروبي المؤرخ 16 فبراير 2017 مع توصيات إلى لجنة قواعد القانون المدني بشأن الروبوتات (2015/2103 (INL)). التوصيات المتعلقة بمحتوى الاقتراح المطلوبة:
تعريف وتصنيف "الروبوتات الذكية"
يجب وضع تعريف أوروبي مشترك للفئات المختلفة للروبوتات المستقلة والذكية، بما في ذلك تعريفات الفئات الفرعية عند الاقتضاء، مع مراعاة الخصائص التالية:
- القدرة على اكتساب الاستقلالية من خلال أجهزة الاستشعار و / أو تبادل البيانات مع البيئة (التوصيل البيني) وتحليل البيانات؛
- القدرة على التعلم من خلال التجربة والتفاعل؛
- شكل المغلف المادي للروبوت؛
- القدرة على تكييف سلوكهم وأفعالهم مع بيئتهم.

تسجيل "الروبوتات الذكية":
يجب إنشاء نظام تسجيل للروبوتات المتقدمة على أساس معايير تصنيف الروبوتات لأغراض التتبع ولتسهيل تنفيذ التوصيات اللاحقة، إذ يجب إنشاء نظام التسجيل والسجل على مستوى الاتحاد وتغطية السوق الداخلية، ويمكن أن تدار من قبل وكالة أوروبية محددة مسؤولة عن الروبوتات والذكاء الاصطناعي، إذا تم إنشاء مثل هذه الوكالة.
المسؤولية:
أياً كان الحل القانوني الذي يتم اختياره فيما يتعلق بمسؤولية الروبوتات والذكاء الاصطناعي في حالات أخرى غير الأضرار المادية، فلا ينبغي لهذا الصك بأي حال من الأحوال أن يحد من نوع أو مدى الضرر الذي قد يكون بمثابة تعويض، ولا ينبغي أن يحد من طبيعة ذلك التعويض، فقط على أساس أن الضرر ناتج عن جهة فاعلة غير بشرية.
يجب أن يستند الصك التشريعي المستقبلي إلى تقييم متعمق تجريه الهيئة، والذي سيتعين عليه تحديد الإستراتيجية التي سيتم تطبيقها، والتي تستند إلى المسؤولية الصارمة أو تلك القائمة على إدارة المخاطر.
يجب إنشاء مخطط تأمين آلي، ربما بناءً على التزام الشركة المصنعة بإصدار بوليصة تأمين للروبوتات المستقلة التي يقوم بتصنيعها.
يجب استكمال نظام التأمين هذا بصندوق لضمان التعويض، بما في ذلك في حالة عدم وجود تغطية.
يجب اتخاذ أي قرار سياسي بشأن قواعد المسؤولية المدنية للروبوتات والذكاء الاصطناعي بعد التشاور الواجب مع مشروع بحث وتطوير على المستوى الأوروبي بشأن الروبوتات وعلم الأعصاب ويتم تنفيذه مع العلماء والخبراء القادرين على تقييم جميع المخاطر والعواقب التي قد يؤدي إليها هذا القرار يستتبع قابلية التشغيل البيني والوصول إلى التعليمات البرمجية المصدر وحقوق الملكية الفكرية من الضروري ضمان التشغيل البيني للروبوتات المستقلة المتصلة بالشبكة التي تتفاعل مع بعضها البعض. يجب أن يكون الوصول إلى الكود المصدري وبيانات الإدخال وتفاصيل البناء متاحًا عند الحاجة ، من أجل التحقيق في الحوادث والأضرار التي تسببها "الروبوتات الذكية"، ولضمان استمرار تشغيلها وتوافرها وموثوقيتها وسلامتها وأمنها.
ميثاق الروبوتات:
عند اقتراح إجراءات قانونية بشأن الروبوتات، يجب على اللجنة أن تأخذ في الاعتبار المبادئ المنصوص عليها في ميثاق الروبوتات أدناه.
سيضع اقتراح مدونة سلوك أخلاقية في مجال الروبوتات الأسس لتحديد ومراقبة واحترام المبادئ الأخلاقية الأساسية من مرحلة التصميم والتطوير.
يجب تصميم هذا الإطار، الذي تم تطويره بعد التشاور مع مشروع بحث وتطوير تم تنفيذه على المستوى الأوروبي ومخصص للروبوتات وعلوم الأعصاب، بطريقة مدروسة تسمح بإجراء التعديلات الفردية على أساس كل حالة على حدة من أجل تقييم ما إذا كان سلوك معين صحيح أو خاطئ في موقف معين واتخاذ القرارات وفقًا لتسلسل هرمي محدد مسبقًا للقيم.
يجب ألا يحل القانون محل الحاجة إلى معالجة جميع القضايا القانونية الرئيسية في هذا المجال، ولكن يجب أن يؤدي وظيفة تكميلية. بدلاً من ذلك، سيسهل التصنيف الأخلاقي في مجال الروبوتات ، ويعزز جهود الابتكار المسؤول في هذا المجال ، ويعالج الاهتمامات العامة.
يجب التركيز بشكل خاص على مرحلتي البحث والتطوير لمسار التكنولوجيا ذات الصلة (عملية التصميم ، المراجعة الأخلاقية، ضوابط التدقيق...).
يجب أن تهدف مدونة السلوك إلى الاستجابة للحاجة إلى ضمان الامتثال للمعايير الأخلاقية من قبل الباحثين والممارسين والمستخدمين والمصممين، ولكن أيضًا لتقديم عملية لإيجاد حلول لحل المعضلات الأخلاقية وتمكين هذه الأنظمة من العمل بطريقة مسؤولة أخلاقياً.
قواعد السلوك الأخلاقية لمهندسي الروبوتات:
الديباجة:
تدعو مدونة السلوك جميع الباحثين والمصممين إلى التصرف بمسؤولية وبوعي مطلق بضرورة احترام كرامة الأفراد وخصوصياتهم وسلامتهم.
تدعو مدونة السلوك إلى تعاون وثيق بين جميع التخصصات لضمان إجراء البحوث في مجال الروبوتات في الاتحاد الأوروبي بطريقة آمنة وأخلاقية وفعالة.
تغطي مدونة السلوك جميع أنشطة البحث والتطوير في مجال الروبوتات.
إن مدونة قواعد السلوك طوعية وتحدد مجموعة من المبادئ العامة والمبادئ التوجيهية للإجراءات التي تتخذها جميع الأطراف المعنية.
هيئات تمويل الأبحاث في مجال الروبوتات ومراكز الأبحاث والباحثين ولجان الأخلاقيات مدعوة إلى دراسة الآثار المستقبلية للتقنيات أو الكائنات قيد الدراسة في مرحلة مبكرة وتطوير ثقافة المسؤولية من أجل مواجهة التحديات و اغتنام الفرص التي قد تظهر في المستقبل.
يجب أن تطلب المنظمات العامة والخاصة التي تمول الأبحاث في مجال الروبوتات إكمال وتقديم تحليل المخاطر لكل اقتراح تمويل بحثي في هذا المجال.
يجب أن يأخذ هذا الرمز في الاعتبار أن المسؤولية تقع على عاتق الإنسان وليس على الروبوتات.
يجب على الباحثين في مجال الروبوتات الالتزام بتبني السلوك الأخلاقي والمهني الأكثر صرامة وكذلك احترام المبادئ التالية:
- الإحسان - يجب أن تعمل الروبوتات في مصلحة البشر؛
- عدم الأذى - نظرية "أولاً ، لا تؤذي" ، والتي بموجبها يجب ألا تؤذي الروبوتات البشر؛
- الاستقلالية - القدرة على اتخاذ قرار مستنير وغير مقيّد حول كيفية التفاعل مع الروبوتات؛
- العدالة - التوزيع العادل للفوائد المتعلقة بالروبوتات والقدرة على تحمل تكاليف الروبوتات المستخدمة في الرعاية المنزلية والرعاية الصحية على وجه الخصوص.
الحقوق الأساسية:
يجب أن تحترم الأنشطة البحثية في مجال الروبوتات الحقوق الأساسية وأن تخدم رفاهية وتقرير المصير للأفراد والمجتمع ككل فيما يتعلق بالتصميم والتنفيذ والنشر والاستغلال.
يجب دائمًا احترام كرامة الإنسان واستقلاليته الجسدية والنفسية.
مزيد من الحذر:
يجب تنفيذ الأنشطة البحثية في مجال الروبوتات مع مراعاة مبدأ الاحتراز، وتوقع التأثير المحتمل لنتائجها على السلامة واتخاذ جميع الاحتياطات اللازمة حسب مستوى الحماية، مع تحفيز التقدم لصالح المجتمع والبيئة.
افتتاح
يضمن مهندسو الروبوتات الشفافية واحترام الحق المشروع في الوصول إلى المعلومات لجميع الأطراف المعنية.
يسمح هذا الانفتاح بالمشاركة في عمليات صنع القرار لجميع أصحاب المصلحة المشاركين في الأنشطة البحثية في مجال الروبوتات أو المعنية بهم.
المسؤولية:
يجب أن يكون مهندسو الروبوتات مسؤولين عن التأثيرات الاجتماعية والبيئية وصحة الإنسان التي قد تسببها الروبوتات للأجيال الحالية والمستقبلية.
الحماية:
يجب على مصممي الروبوتات مراعاة واحترام الرفاه الجسدي والسلامة والصحة وحقوق الأشخاص. يجب أن يحافظ مهندس الروبوتات على رفاهية الإنسان، مع احترام حقوق الإنسان، والإبلاغ الفوري عن العوامل التي يمكن أن تعرض الجمهور أو البيئة للخطر.
الانعكاس:
يعد الانعكاس، وهو شرط ضروري للتحكم، مفهومًا أساسيًا عند برمجة الروبوتات للتصرف بأمان وموثوقية. يخبر نموذج الانعكاس الروبوت عن الإجراءات التي يمكن عكسها، وإذا كان الأمر كذلك، فكيف يمكن عكسها. تتيح القدرة على التراجع عن الإجراء الأخير أو سلسلة من الإجراءات للمستخدمين التراجع عن الإجراءات غير المرغوب فيها والعودة إلى المرحلة "الصحيحة" من عملهم.
المسؤولية:
يجب أن يكون مهندسو الروبوتات مسؤولين عن التأثيرات الاجتماعية والبيئية وصحة الإنسان التي قد تسببها الروبوتات للأجيال الحالية والمستقبلية.
حماية الحياة الخاصة:
يجب دائمًا احترام الحق في الخصوصية.
يجب أن يتأكد مهندس الروبوتات من أن المعلومات الخاصة يتم الاحتفاظ بها بأمان واستخدامها دائمًا بشكل جيد. بالإضافة إلى ذلك،
يجب أن تضمن عدم إمكانية التعرف على الأشخاص بشكل شخصي، إلا في ظروف استثنائية وفقط في حالة الموافقة الواضحة والمستنيرة وغير المبهمة.
يجب السعي للحصول على موافقة مستنيرة من الشخص والحصول عليها قبل أي تفاعل بين الإنسان والآلة. على هذا النحو، يتحمل مهندسو الروبوتات مسؤولية تطوير وتطبيق الإجراءات لضمان الموافقة الهادفة والسرية وإخفاء الهوية والمعاملة العادلة والإجراءات القانونية الواجبة.
يلتزم المصممون بأي طلب لإتلاف أي بيانات متعلقة بها أو إزالتها من سلسلة من البيانات.

تنمية الفوائد وتقليل الضرر:
يجب أن يهدف الباحثون إلى تعظيم فوائد نشاطهم في جميع المراحل، من الإنشاء إلى النشر.
يجب تجنب الإضرار بالمشاركين أو الأشخاص المشاركين في التجارب البحثية أو التجارب أو الدراسات. عندما تظهر مخاطر لا يمكن تجنبها كجزء من البحث.
يجب إجراء تقييم قوي للمخاطر وبروتوكولات صارمة لإدارة المخاطر والالتزام بها. في العادة.
يجب ألا يتجاوز خطر الضرر ما يواجهونه في الحياة العادية، مما يعني أنه لا ينبغي أن يتعرض الناس لمخاطر أكبر من أو بالإضافة إلى تلك التي يتعرضون لها في حياتهم اليومية.
يجب أن يعتمد تشغيل نظام الروبوتات دائمًا على تقييم شامل للمخاطر بناءً على مبادئ الاحتياط والتناسب.
مدونة أخلاقيات لجان أخلاقيات البحث (المبادئ):
الاستقلال:
يجب أن تكون عملية مراجعة الأخلاقيات مستقلة عن البحث نفسه.
يؤكد هذا المبدأ على الحاجة إلى تجنب تضارب المصالح بين الباحثين ومراجعي بروتوكول الأخلاقيات وكذلك بين المراجعين وهياكل الحوكمة التنظيمية.
الكفاءة:
يجب أن يتم تنفيذ عملية مراجعة الأخلاقيات من قبل مراجعين يتمتعون بالمهارات المناسبة مع مراعاة الحاجة إلى النظر بعناية في التنوع في التكوين والتدريب المحدد في أخلاقيات اللجان وأخلاقيات البحث.
الشفافية والمساءلة:
يجب أن تكون عملية المراجعة خاضعة للمساءلة وقابلة للتدقيق.
يجب أن تكون مجالس أخلاقيات البحث على دراية بمسؤولياتها وأن توضع بحكمة داخل الهياكل التنظيمية التي تضمن الشفافية في عمليات وإجراءات هذه المجالس للحفاظ على المعايير ومراجعتها.
دور مجلس أخلاقيات البحث:
بشكل عام، يكون مجلس أخلاقيات البحث مسؤولاً عن مراجعة جميع الأبحاث التي يشارك فيها البشر والتي يتم إجراؤها من قبل الأشخاص العاملين في المؤسسة المعنية أو من قبلها، مما يضمن إجراء المراجعة الأخلاقية بطريقة مستقلة ومختصة وفي الوقت المناسب؛ حماية كرامة وحقوق ورفاهية المشاركين في البحث؛ مع الأخذ في الاعتبار سلامة الباحث (الباحثين)؛ مراعاة المصالح المشروعة للأطراف المعنية الأخرى؛ إصدار حكم مستنير بشأن الجدارة العلمية للمقترحات؛ وتقديم توصيات مستنيرة للباحث إذا وجد أن الاقتراح غير كافٍ في بعض النواحي.
تكوين لجنة أخلاقيات البحث:
كقاعدة عامة، يجب أن يكون مجلس أخلاقيات البحث متعدد التخصصات؛ تتألف من رجال ونساء؛ تشمل أعضاء من ذوي الخبرة والخبرة الواسعة في مجال أبحاث الروبوتات.
يجب أن تضمن آلية التعيين أن أعضاء اللجنة يقدمون توازناً مناسباً بين الخبرة العلمية والتدريب الفلسفي أو الأخلاقي أو القانوني، فضلاً عن مجموعة متنوعة من وجهات النظر.
يجب أن تتضمن أيضًا عضوًا واحدًا على الأقل لديه معرفة متخصصة بالأخلاقيات وكذلك مستخدمي الخدمات الصحية أو التعليمية أو الاجتماعية المتخصصة حيث تكون هذه المجالات في قلب الأنشطة البحثية، والأشخاص الذين لديهم مهارات منهجية محددة ذات صلة بالبحث الذي يقومون بتقييمه ؛ يجب أيضًا تشكيل لجان أخلاقيات البحث بطريقة تتجنب تضارب المصالح.
المراقبة:
يجب أن يكون لدى جميع المنظمات البحثية الإجراءات المناسبة لمراقبة إجراء البحث الذي تم منحه الضوء الأخضر للأخلاقيات حتى الانتهاء، وضمان المراجعة المستمرة إذا كان تصميم البحث يتوقع حدوث تغييرات. ممكن في الوقت الذي قد تحتاج إلى معالجته.
يجب أن تكون الضوابط متناسبة مع طبيعة وشدة مخاطر البحث.
عندما يعتقد مجلس أخلاقيات البحث أن تقرير المتابعة يثير مخاوف جدية بشأن السلوك الأخلاقي للدراسة، يجب أن يطلب حسابًا تفصيليًا وشاملًا للبحث من أجل المراجعة الأخلاقية الشاملة.
في حالة اعتبار الدراسة قد أجريت بطريقة غير أخلاقية، يجب النظر في سحب موافقتها ويجب تعليق البحث أو إنهاؤه.
الترخيص للمصممين:
يجب أن يأخذ المصممون في الاعتبار القيم الأوروبية للكرامة والاستقلال الذاتي وتقرير المصير ، وكذلك الحرية والعدالة ، قبل وأثناء وبعد عملية تصميم وتطوير وتقديم هذه التقنيات ، بما في ذلك الحاجة إلى عدم الإضرار ، جرح أو خداع أو استغلال (ضعيف) المستخدمين.
يجب على المصممين وضع مبادئ موثوقة لتصميم النظام في جميع جوانب تشغيل الروبوت ، سواء لتصميم الأجهزة والبرامج أو لمعالجة البيانات "على المنصة" أو "خارج النظام الأساسي" لأغراض أمنية.
يجب على المصممين تنفيذ ضمانات الخصوصية حسب التصميم لضمان الحفاظ على المعلومات الخاصة آمنة واستخدامها دائمًا بشكل مناسب.
يجب على المصممين دمج آليات خروج واضحة (أزرار إيقاف الطوارئ) التي يجب أن تكون متسقة مع أهداف التصميم المعقولة.
يجب على المصممين التأكد من أن الروبوت يعمل بطريقة تتفق مع المبادئ الأخلاقية والقانونية المعمول بها محليًا ووطنًا ودوليًا.
يجب على المصممين التأكد من أن خطوات صنع القرار الروبوتية تخضع لإعادة البناء والتتبع.
يجب على المصممين التأكد من أن الحد الأقصى من الشفافية مطلوب في برمجة الأنظمة الروبوتية ، وكذلك القدرة على التنبؤ بسلوك الروبوت.
يجب على المصممين تحليل إمكانية التنبؤ بنظام الإنسان الآلي من خلال فحص أوجه عدم اليقين في التفسير والعمل بالإضافة إلى احتمال فشل الروبوت أو الإنسان.
يجب على المصممين تطوير أدوات التتبع أثناء مرحلة تصميم الروبوت. ستجعل هذه الأدوات من الممكن حصر سلوك الروبوتات وشرحها ، حتى بطريقة محدودة ، على المستويات المختلفة المقدمة للخبراء والمشغلين والمستخدمين.
يجب على المصممين تطوير بروتوكولات التصميم والتقييم ، والتعاون مع المستخدمين المحتملين والأطراف المهتمة لتقييم فوائد ومخاطر الروبوتات ، بما في ذلك المعرفية والنفسية والبيئية.
يجب على المصممين التأكد من أن الروبوتات يمكن التعرف عليها على أنها روبوتات عند التفاعل مع البشر.
يجب على المصممين حماية سلامة وصحة الأشخاص الذين يتفاعلون ويتعاملون مع الروبوتات، حيث يجب تصميم الروبوتات ، كمنتجات، وفقًا لعمليات تضمن سلامتهم وأمنهم. يجب أن يحافظ مهندس الروبوتات على رفاهية الإنسان ، مع احترام حقوق الإنسان ، ولا يمكنه تشغيل الروبوت دون ضمان سلامة وكفاءة وعكس عملية تشغيل النظام.
يجب أن يحصل المصممون على رأي إيجابي من لجنة أخلاقيات البحث قبل اختبار الروبوت في بيئة حقيقية أو إشراك البشر في إجراءات التصميم والتطوير.
الترخيص للمستخدمين:
يسمح للمستخدمين باستخدام الروبوت دون المخاطرة أو الخوف من الأذى الجسدي أو النفسي.
يجب أن يكون للمستخدمين الحق في توقع قيام روبوت بأداء أي مهمة صُمم من أجلها صراحةً.
يجب أن يدرك المستخدمون أن أي روبوت قد يكون له قيود إدراكية وقيود معرفية وقيود تشغيل.
يجب على المستخدمين احترام ضعف الإنسان الجسدي والنفسي وكذلك الاحتياجات العاطفية للأشخاص.
يجب على المستخدمين مراعاة الحق في الخصوصية الذي يتمتع به الأفراد ، بما في ذلك تعطيل شاشات الفيديو أثناء الإجراءات الحميمة.
لا يُسمح للمستخدمين بجمع المعلومات الشخصية أو استخدامها أو الكشف عنها دون موافقة صريحة من الشخص المعني.
لا يُسمح للمستخدمين باستخدام الروبوت بطريقة تنتهك المبادئ والمعايير الأخلاقية أو القانونية.
لا يُسمح للمستخدمين بتعديل الروبوتات لاستخدامها كأسلحة.

المبحث السادس: نحو أخلاقيات الذكاء الاصطناعي :
الذكاء الاصطناعي: الحدود الجديدة للإنسانية:
نحن نقف عند فجر حقبة جديدة. تعمل الثورة التكنولوجية على تغيير حياتنا بسرعة هائلة، مما يغير بشكل كبير الطرق التي نعمل ونتعلم بها، وحتى تلك التي نعيش بها سوياً. يمر الذكاء الاصطناعي (AI) بنمو هائل وإيجاد تطبيقات جديدة في عدد متزايد من القطاعات، بما في ذلك الأمن والبيئة والبحث والتعليم والصحة والثقافة والتجارة إلى جانب الاستخدام المتزايد التعقيد للبيانات الضخمة.
الذكاء الاصطناعي هو الحدود الجديدة للإنسانية. بمجرد عبور هذه الحدود، سيؤدي الذكاء الاصطناعي إلى شكل جديد من الحضارة الإنسانية. المبدأ التوجيهي للذكاء الاصطناعي ليس أن يصبح مستقلاً أو يحل محل الذكاء البشري. ولكن يجب علينا أن نتأكد من تطويره من خلال نهج إنساني قائم على القيم وحقوق الإنسان. نحن نواجه سؤالًا حاسمًا: ما نوع المجتمع الذي نريده غدًا؟ تفتح ثورة الذكاء الاصطناعي آفاقًا جديدة ومثيرة، لكن الاضطراب الأنثروبولوجي والاجتماعي الذي يجلبه في أعقابه يتطلب دراسة متأنية.
فرصة هائلة للتنمية المستدامة:
التحولات الناشئة عن الثورة التكنولوجية، وخاصة من التطورات في الذكاء الاصطناعي، لها صلة بكل جانب من جوانب ولاية منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو). يجري بالفعل النهوض بالتعليم بعمق من قبل الذكاء الاصطناعي. لن تكون أدوات التعليم—الطريقة التي نتعلم بها ونحصل بها على المعرفة وندرب بها المعلمين—هي نفسها قريبًا. من الآن فصاعدًا، يقف اكتساب المهارات الرقمية في صميم جميع برامجنا التعليمية. علاوة على ذلك، يجب أن "نتعلم كيف نتعلم" لأن سرعة الابتكار تعمل على تغيير سوق العمل بسرعة. ، تعتبر العلوم الإنسانية مثل التاريخ والفلسفة والأدب اليوم، أكثر من أي وقت مضى حاسمة لقدرتنا على العمل في عالمنا سريع التغير. يتم بالفعل استخدام الذكاء الاصطناعي في مجال الثقافة على نطاق واسع. على سبيل المثال، في الصور المستخدمة لإعادة بناء التراث. يتم استخدامه في العلوم أيضًا، لا سيما في برامجنا البيئية والبحث تحت الماء. تعتمد الاتصالات والمعلومات أيضًا بشكل مباشر على التقدم المحرز في الذكاء الاصطناعي، خاصة فيما يتعلق بحرية التعبير والوصول إلى المعلومات.
يمكن للذكاء الاصطناعي أن يفتح فرصًا هائلة لتحقيق أهداف التنمية المستدامة (SDGs) التي حددتها الأمم المتحدة في خطة التنمية المستدامة لعام 2030. حيث تتيح تطبيقاته حلولًا مبتكرة وتقييمًا محسنًا للمخاطر وتخطيطًا أفضل ومشاركة أسرع للمعرفة.
معالجة تحديات الذكاء الاصطناعي:
في حين أن الذكاء الاصطناعي يمثل أصلاً مذهلاً للتنمية المسؤولة في مجتمعاتنا، إلا أنه يثير قضايا أخلاقية كبرى. كيف يمكننا التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير؟ هل يمكن ضمان حرية التصرف عندما تكون رغباتنا متوقعة وموجهة؟ كيف يمكننا ضمان عدم تكرار الصور النمطية الاجتماعية والثقافية في برامج الذكاء الاصطناعي، لا سيما عندما يتعلق الأمر بالتمييز بين الجنسين؟ هل يمكن تكرار هذه الدوائر؟ هل يمكن برمجة القيم، وبواسطة من؟ كيف يمكننا ضمان المساءلة عندما تكون القرارات والإجراءات مؤتمتة بالكامل؟ كيف نتأكد من عدم حرمان أي شخص، أينما كان في العالم، من فوائد هذه التقنيات؟ كيف يمكننا ضمان تطوير الذكاء الاصطناعي بطريقة شفافة بحيث يكون للمواطنين العالميين الذين تتأثر حياتهم به رأي في تطويره؟
للإجابة على هذه الأسئلة، يجب أن نميز بين الآثار المباشرة للذكاء الاصطناعي على مجتمعاتنا، عواقبه التي نشعر بها بالفعل، وتداعياته على المدى الطويل. وهذا يتطلب أن نشكل بشكل جماعي رؤية وخطة عمل استراتيجية.
إقامة حوار عالمي حول أخلاقيات الذكاء الاصطناعي: دور اليونسكو:
يجب على العالم أن يضمن استخدام التكنولوجيات الجديدة، خاصة تلك القائمة على الذكاء الاصطناعي، لصالح مجتمعاتنا وتنميتها المستدامة. يجب أن تنظم تطورات وتطبيقات الذكاء الاصطناعي بحيث تتوافق مع الحقوق الأساسية التي تشكل أفقنا الديمقراطي.
تدعو العديد من الجهات الفاعلة مثل الشركات ومراكز البحوث وأكاديميات العلوم والدول الأعضاء في الأمم المتحدة والمنظمات الدولية وجمعيات المجتمع المدني إلى إطار أخلاقي لتطوير الذكاء الاصطناعي. بينما يتزايد الفهم للقضايا، فإن المبادرات ذات الصلة تحتاج إلى تنسيق أكثر قوة. هذه المشكلة عالمية، ويجب أن يتم التفكير فيها على المستوى العالمي لتجنب اتباع نهج "الانتقاء والاختيار" في الأخلاقيات. علاوة على ذلك، يلزم اتباع نهج شامل وعالمي، بمشاركة صناديق الأمم المتحدة ووكالاتها وبرامجها، إذا أردنا إيجاد طرق لتسخير الذكاء الاصطناعي من أجل التنمية المستدامة.
ستكون اليونسكو مشاركًا كاملًا ونشطًا في هذه المحادثة العالمية. تتمتع منظمتنا بسنوات عديدة من الخبرة في أخلاقيات العلوم والتكنولوجيا. لقد أصدرت هيئاتنا الاستشارية بالفعل العديد من التقارير والإعلانات، بما في ذلك حول الروبوتات، مثل تقرير اللجنة العالمية لأخلاقيات المعرفة العلمية والتكنولوجيا حول أخلاقيات الروبوتات في عام 2017. تتمتع الهيئات الاستشارية أيضًا بخبرة في تطوير الأدوات المعيارية، بما في ذلك الإعلان العالمي بشأن الجينوم البشري وحقوق الإنسان في عام 1997 والإعلان العالمي لأخلاقيات البيولوجيا وحقوق الإنسان في عام 2005.
يجب أن توجه أولويات اليونسكو أيضًا عملنا الدولي في هذا المجال. من الضروري التأكد من أن أفريقيا تشارك مشاركة كاملة في التحولات المتعلقة بالذكاء الاصطناعي، ليس فقط كمستفيد ولكن أيضًا كمشارك من المنبع، والمساهمة بشكل مباشر في تنميتها. فيما يتعلق بالمساواة بين الجنسين، يجب أن نحارب التحيزات في مجتمعاتنا لضمان عدم تكرارها في تطبيقات الذكاء الاصطناعي. أخيرًا، يجب علينا تمكين الشباب من خلال تزويدهم بالمهارات التي يحتاجونها للحياة في القرن الحادي والعشرين للاندماج في سوق العمل المتغير.
تلعب اليونسكو أيضًا دور رئيسي في سد الفجوات القائمة والتي من المحتمل أن يعمقها الذكاء الاصطناعي. إن القضاء على التشرذم بين البلدان والأجناس، وكذلك من حيث الموارد والمعرفة، أن يمكّن المزيد من الناس من المساهمة في التحول الرقمي الجاري.
تعد اليونسكو، برسالتها الإنسانية وبُعدها الدولي، والتي تضم الباحثين والفلاسفة والمبرمجين وواضعي السياسات وممثلي القطاع الخاص والمجتمع المدني، المكان الطبيعي للنقاش حول هذه القضايا الأخلاقية. ستنظم اليونسكو مناقشات حول الذكاء الاصطناعي في العديد من مناطق العالم ابتداءً من وقت متأخر هذا العام، تضم خبراء من مجموعة واسعة من الخلفيات والخبرات. ركز النقاش الأول، الذي دار في مراكش بالمغرب، في 12 كانون الأول/ ديسمبر من عام 2018، على الذكاء الاصطناعي وأفريقيا. سيعقد مؤتمر دولي ثانِ في مقر اليونسكو في باريس في النصف الأول من عام 2019. يمكن أن يؤدي هذا الحوار في النهاية، بموافقة الدول الأعضاء، إلى تحديد المبادئ الأخلاقية الرئيسية لمرافقة التطورات في مجال الذكاء الاصطناعي.
إن اليونسكو، باعتبارها منتدى عالمي يسمع فيه صوت كل شخص ويحظى بالاحترام، تؤدي دورها على أكمل وجه، حيث تقوم بتنوير النقاش العالمي حول التحولات الرئيسية في عصرنا مع وضع مبادئ لضمان استخدام التقدم التكنولوجي في خدمة الصالح العام. إن وعد الذكاء الاصطناعي والقضايا الأخلاقية الكامنة فيه هو أمر رائع، وستؤدي استجاباتنا لهذه التحديات إلى تغيير الصورة التي نعرفها للعالم.
يجب أن نجد معًا أفضل الحلول لضمان أن تكون تنمية الذكاء الاصطناعي فرصة للبشرية، حيث يقع على عاتق جيلنا مسؤولية الانتقال إلى مجتمع أكثر عدلاً وسلامًا وازدهارًا.
وقائع الأمم المتحدة ليست سجلاً رسمياً. إن الآراء التي يعبر عنها المؤلفون الأفراد، وكذلك الحدود والأسماء المعروضة والتسميات المستخدمة في الخرائط أو المقالات، لا تعني بالضرورة موافقة أو قبول رسمي من قِبل الأمم المتحدة.



#محمد_أوبالاك (هاشتاغ)      



اشترك في قناة ‫«الحوار المتمدن» على اليوتيوب
حوار مع الكاتب البحريني هشام عقيل حول الفكر الماركسي والتحديات التي يواجهها اليوم، اجرت الحوار: سوزان امين
حوار مع الكاتبة السودانية شادية عبد المنعم حول الصراع المسلح في السودان وتاثيراته على حياة الجماهير، اجرت الحوار: بيان بدل


كيف تدعم-ين الحوار المتمدن واليسار والعلمانية على الانترنت؟

تابعونا على: الفيسبوك التويتر اليوتيوب RSS الانستغرام لينكدإن تيلكرام بنترست تمبلر بلوكر فليبورد الموبايل



رأيكم مهم للجميع - شارك في الحوار والتعليق على الموضوع
للاطلاع وإضافة التعليقات من خلال الموقع نرجو النقر على - تعليقات الحوار المتمدن -
تعليقات الفيسبوك () تعليقات الحوار المتمدن (0)


| نسخة  قابلة  للطباعة | ارسل هذا الموضوع الى صديق | حفظ - ورد
| حفظ | بحث | إضافة إلى المفضلة | للاتصال بالكاتب-ة
    عدد الموضوعات  المقروءة في الموقع  الى الان : 4,294,967,295
- الديمقراطية الرقمية والديمقراطية التشاركية الرقمية.
- ما هي السيادة الرقمية؟
- تقرير المفوضية الأوربية لحقوق الانسان حول حقوق الإنسان والتك ...
- واقع التعليم الجامعي والبحث العلمي بالمغرب، موضوع قديم بصياغ ...
- الغول الاقتصادي المسمى -GAFA- أو الشركات العاملة على دعامات ...
- البلوك تشين (سلسلة الكتلة) والقانون: نظرة عامة موجزة على الا ...
- فرض الضريبة على أرقام معاملات الشركات العاملة في النشاط الرق ...
- -العملات/الأصول المشفرة، ومشروع القوانين واللوائح: جوانب من ...
- السيادة الرقمية أوروبا تختنق بالمعايير.
- تحدي التكنولوجية الرقمية للقانون الدستوري.
- المتقاضي الرقمي.
- التعاون الدولي في زمن -كوفيد-19-
- الوكالات الدولية المتخصصة والحق في التقاضي (صندوق النقد الدو ...
- البعد الدولي في مجال مجابهة المغرب لجريمتي تبييض الأموال وال ...


المزيد.....




- أمريكا.. اعتقال أستاذتين جامعيتين في احتجاجات مؤيدة للفلسطين ...
- التعاون الإسلامي ترحب بتقرير لجنة المراجعة المستقلة بشأن الأ ...
- العفو الدولية تطالب بتحقيقات دولية مستقلة حول المقابر الجما ...
- قصف موقع في غزة أثناء زيارة فريق من الأمم المتحدة
- زاهر جبارين عضو المكتب السياسى لحماس ومسئول الضفة وملف الأسر ...
- حماس: لا نريد الاحتفاظ بما لدينا من الأسرى الإسرائيليين
- أمير عبد اللهيان: لتكف واشنطن عن دعم جرائم الحرب التي يرتكبه ...
- حماس: الضغوط الأميركية لإطلاق سراح الأسرى لا قيمة لها
- الاحتلال يعقد اجتماعا لمواجهة احتمال صدور مذكرات اعتقال لعدد ...
- مسؤول أمريكي: قرار وقف النار وتبادل الأسرى بيد السنوار.. وقد ...


المزيد.....

- التنمر: من المهم التوقف عن التنمر مبكرًا حتى لا يعاني كل من ... / هيثم الفقى
- محاضرات في الترجمة القانونية / محمد عبد الكريم يوسف
- قراءة في آليات إعادة الإدماج الاجتماعي للمحبوسين وفق الأنظمة ... / سعيد زيوش
- قراءة في كتاب -الروبوتات: نظرة صارمة في ضوء العلوم القانونية ... / محمد أوبالاك
- الغول الاقتصادي المسمى -GAFA- أو الشركات العاملة على دعامات ... / محمد أوبالاك
- أثر الإتجاهات الفكرية في الحقوق السياسية و أصول نظام الحكم ف ... / نجم الدين فارس
- قرار محكمة الانفال - وثيقة قانونيه و تاريخيه و سياسيه / القاضي محمد عريبي والمحامي بهزاد علي ادم
- المعين القضائي في قضاء الأحداث العراقي / اكرم زاده الكوردي
- المعين القضائي في قضاء الأحداث العراقي / أكرم زاده الكوردي
- حكام الكفالة الجزائية دراسة مقارنة بين قانون الأصول المحاكما ... / اكرم زاده الكوردي


المزيد.....


الصفحة الرئيسية - دراسات وابحاث قانونية - محمد أوبالاك - قراءة في كتاب -الروبوتات: نظرة صارمة في ضوء العلوم القانونية والاجتماعية والانسانية: