الآمال المزيفة المعقودة على برنامج تشات جي بي تي ، نعوم تشومسكي وأخرون


محمد عبد الكريم يوسف
2023 / 3 / 24 - 23:29     

الآمال المزيفة المعقودة على برنامج تشات جي بي تي


صحيفة نيويورك تايمز ، ٨ أذار ٢٠٢٣

بقلم نعوم تشومسكي و إيان روبرتس وجيفري واتومول

ترجمة محمد عبد الكريم يوسف

الدكتور تشومسكي والدكتور روبرتس أساتذة في علم اللغة. الدكتور واتومول هو مدير الذكاء الاصطناعي في شركة للعلوم والتكنولوجيا.


كتب غورغي لويس بورغيس ذات مرة أن العيش في زمن الخطر العظيم والوعود تجربة للمأساة والكوميديا على حد سواء ، و مع "اقتراب الوحي" لفهم أنفسنا والعالم. إن تطوراتنا الثورية المفترضة اليوم في الذكاء الاصطناعي هي بالفعل مدعاة للقلق والتفاؤل. التفاؤل لأن الذكاء هو الوسيلة التي نحل بها المشاكل. والقلق لأننا نخشى أن السلالة الأكثر شيوعا وعصرية من الذكاء الاصطناعي - التعلم الآلي - ستؤدي إلى تدهور علمنا وتقليل أخلاقياتنا من خلال دمج مفهوم خاطئ بشكل أساسي للغة والمعرفة في تقنياتنا الحياتية
.


تعد كل من تشات جي بي تي من الذكاء الصناعي المفتوح و غوغل بارد و وكالة سيدني في سيدني أعجوبة من أعاجيب التعلم الآلي. بشكل تقريبي ، تأخذ هذه البرامج كميات هائلة من البيانات ، وتبحث عن أنماط فيها وتصبح بارعة بشكل متزايد في توليد مخرجات محتملة إحصائيًا - مثل اللغة والأفكار التي تبدو بشرية. لقد تم الترحيب بهذه البرامج باعتبارها أول بصيص في أفق الذكاء العام الاصطناعي - تلك اللحظة التي تم التنبؤ بها منذ فترة طويلة عندما تتفوق العقول الميكانيكية على العقول البشرية ليس فقط من الناحية الكمية من حيث سرعة المعالجة وحجم الذاكرة ولكن أيضًا من الناحية النوعية من حيث البصيرة الفكرية والإبداع الفني وكل هيئة تدريس بشرية أخرى مميزة.


قد يأتي ذلك اليوم ، لكن فجره لم ينفجر بعد ، على عكس ما يمكن قراءته في العناوين الزائدة وتحسبها الاستثمارات غير الحكيمة. إن الكشف عن الفهم لبوغيس لم ولن يحدث – ونؤكد أنه - لا يمكن أن يحدث إذا استمرت برامج التعلم الآلي مثل تشات جي بي تي في السيطرة على مجال الذكاء الاصطناعي. ومع ذلك ، قد تكون هذه البرامج مفيدة في بعض المجالات الضيقة (يمكن أن تكون مفيدة في برمجة الكمبيوتر ، على سبيل المثال ، أو في اقتراح القوافي لشعر خفيف) ، نعلم من علم اللغويات وفلسفة المعرفة أنها تختلف اختلافًا عميقًا عن كيفية تفكير البشر واستخدامها للغة. تضع هذه الاختلافات قيودا كبيرة على ما يمكن أن تفعله هذه البرامج ، مما يؤدي إلى ترميزها بعيوب لا يمكن القضاء عليها.


إنه أمر هزلي ومأساوي في آن واحد ، كما قد يكون بورخيس قد لاحظ ، أن الكثير من المال والاهتمام يجب أن يتركز على شيء صغير جدا - شيء تافه جدًا عند مقارنته بالعقل البشري ، والذي بحكم اللغة ، على حد تعبير فيلهلم فون همبولدت ، يمكن أن يستخدم "استخداما غير محدود للوسائل المحدودة" ، ويخلق أفكارا ونظريات ذات مدى عالمي.


العقل البشري ليس ، مثل تشات جي بي تي وأمثاله ، محركا إحصائيا ثقيلا بمطابقة الأنماط ، يلتهم مئات التيرابايت من البيانات ويستنبط استجابة المحادثة الأكثر احتمالا أو الإجابة الأكثر احتمالا لسؤال علمي. على العكس من ذلك ، فإن العقل البشري نظام فعال وحتى أنيق بشكل مدهش يعمل بكميات صغيرة من المعلومات؛ لا يسعى إلى استنتاج الارتباطات الغاشمة بين نقاط البيانات ولكن لإنشاء تفسيرات.


على سبيل المثال ، يتطور اكتساب طفل صغير للغة - بشكل لا شعوري وتلقائي وسريع من بيانات ضئيلة – هي قواعد ، وهو نظام معقد للغاية من المبادئ والمعايير المنطقية. يمكن فهم هذه القواعد على أنها تعبير عن "نظام التشغيل" الفطري المثبت وراثيا والذي يمنح البشر القدرة على توليد جمل معقدة وخطوات طويلة من التفكير. عندما يسعى اللغويون إلى تطوير نظرية تفسر سبب عمل لغة معينة كما تعمل ("لماذا تعتبر هذه الجمل - وليس تلك - الجمل) قواعد نحوية؟ وبأدنى حد من التعرض للمعلومات. يختلف نظام تشغيل الطفل تمامًا عن نظام التعلم الآلي.


في الواقع ، هذه البرامج عالقة في مرحلة ما قبل الإنسان أو غير البشرية من التطور المعرفي. عيبهم الأعمق هو عدم وجود القدرة الأكثر أهمية لأي ذكاء: ليس فقط لقول ما هو الحال ، ما كان عليه وما سيكون عليه - هذا الوصف والتنبؤ - ولكن أيضا ما ليس هو الحال وما يمكن أن يحدث. ولا يمكن أن يكون الأمر كذلك. تلك هي مقومات التفسير وعلامة الذكاء الحقيقي.


هنا مثال آخر . افترض أنك تحمل تفاحة في يدك. الآن تركت التفاحة تسقط. تلاحظ النتيجة وتقول ، "التفاحة تسقط". هذا وصف. ربما كان التنبؤ عبارة "سوف تسقط التفاحة إذا فتحت يدي". كلاهما ذو قيمة ، وكلاهما يمكن أن يكون صحيحا. لكن التفسير هو شيء أكثر من ذلك: فهو لا يشمل فقط الأوصاف والتنبؤات ولكن أيضا التخمينات المضادة مثل "أي كائن من هذا القبيل سوف يسقط" ، بالإضافة إلى الجملة الإضافية "بسبب قوة الجاذبية" أو "بسبب انحناء الزمكان" أو أيا كان. هذا تفسير سببي: "ما كان لسقوط التفاحة لولا قوة الجاذبية." هذا هو التفكير.


إن جوهر التعلم الآلي هو الوصف والتنبؤ. لا يطرح أي آليات سببية أو قوانين فيزيائية. بالطبع ، أي تفسير على غرار البشر ليس بالضرورة صحيحا ؛ نحن غير معصومين. لكن هذا جزء مما يعنيه التفكير: لكي تكون على صواب ، يجب أن يكون من الممكن أن تكون مخطئا. لا يتكون الذكاء فقط من التخمينات الإبداعية ولكن أيضا من النقد الإبداعي. يعتمد أسلوب التفكير البشري على التفسيرات المحتملة وتصحيح الأخطاء ، وهي عملية تحد تدريجيًا من الاحتمالات التي يمكن اعتبارها عقلانية. (كما قال شيرلوك هولمز للدكتور واتسون ، "عندما تقضي على المستحيل ، كل ما تبقى ، مهما كان بعيد الاحتمال ، يجب أن يكون هو الحقيقة.)"


لكن تشات جي بي تي والبرامج المماثلة ، بحكم تصميمها ، غير محدودة فيما يمكن أن "تتعلمه" (أي حفظها) ؛ إنهم غير قادرة على التمييز بين الممكن والمستحيل. على عكس البشر ، على سبيل المثال ، الذين يتمتعون بقواعد عالمية تحد من اللغات التي يمكننا تعلمها لأولئك الذين لديهم نوع معين من الأناقة الرياضية تقريبا ، فإن هذه البرامج تتعلم اللغات الممكنة إنسانيا والمستحيلة بشريا مع تسهيلات متساوية . في حين أن البشر محدودون في أنواع التفسيرات التي يمكننا تخمينها بشكل منطقي ، يمكن لأنظمة التعلم الآلي أن تتعلم أن الأرض مسطحة وأن الأرض كروية. إنهم يتداولون فقط في الاحتمالات التي تتغير بمرور الوقت.


لهذا السبب ، ستكون تنبؤات أنظمة التعلم الآلي دائمًا سطحية ومشكوك فيها. نظرا لأن هذه البرامج لا يمكنها شرح قواعد بناء الجملة الإنجليزية ، على سبيل المثال ، فقد يتوقعون شيئا جيدا ، بشكل غير صحيح ، أن "جون عنيد جدا في التحدث إليه" يعني أن جون عنيد جدا لدرجة أنه لن يتحدث إلى شخص أو آخر (بدلا من ذلك إنه عنيد جدا بحيث لا يمكن التفكير معه). لماذا يتنبأ برنامج التعلم الآلي بشيء غريب جدا؟ لأنها قد تشابه النمط الذي استنتجته من جمل مثل "John ate an apple" و "John ate" ، حيث تعني الأخيرة أن جون قد أكل شيئا أو غيره. قد يتنبأ البرنامج جيدا أنه نظرا لأن "جون عنيد جدا في التحدث إلى بيل" مشابه لـ "جون أكل تفاحة"، فإن عبارة "جون عنيد جدا في التحدث إليه" يجب أن تكون مشابهة لعبارة "جون يأكل".


على العكس من ذلك ، يبدو أن بعض المتحمسين للتعلم الآلي يفتخرون بأن إبداعاتهم يمكن أن تولد تنبؤات "علمية" صحيحة (على سبيل المثال ، حول حركة الأجسام المادية) دون استخدام التفسيرات (التي تتضمن ، على سبيل المثال ، قوانين نيوتن للحركة والجاذبية العامة). لكن هذا النوع من التنبؤ ، حتى عندما ينجح ، هو علم زائف. بينما يسعى العلماء بالتأكيد إلى النظريات التي تتمتع بدرجة عالية من الإثبات التجريبي ، كما أشار الفيلسوف كارل بوبر ، "نحن لا نسعى إلى نظريات محتملة للغاية ولكننا نبحث عن تفسيرات. وهذا يعني ، نظريات قوية وغير محتملة للغاية ".

النظرية القائلة بأن التفاح يسقط على الأرض لأن هذا هو مكانها الطبيعي (وجهة نظر أرسطو) ممكنة ، لكنها تدعو فقط إلى المزيد من الأسئلة. (لماذا الأرض مكانها الطبيعي؟) النظرية القائلة بأن التفاح يسقط على الأرض لأن الكتلة تنحني الزمكان (وجهة نظر أينشتاين) غير محتملة للغاية ، لكنها في الواقع تخبرك عن سبب سقوطها. يتجلى الذكاء الحقيقي في القدرة على التفكير والتعبير عن أشياء غير محتملة ولكنها ثاقبة.


الذكاء الحقيقي قادر أيضًا على التفكير الأخلاقي. هذا يعني تقييد الإبداع اللامحدود لعقولنا بمجموعة من المبادئ الأخلاقية التي تحدد ما يجب وما لا يجب أن يكون (وبالطبع إخضاع هذه المبادئ نفسها للنقد الإبداعي). لكي تكون مفيدة ، يجب تمكين تشات جي بي تي لتوليد مخرجات تبدو جديدة ؛ لكي تكون مقبولة لدى معظم مستخدميها ، يجب أن تبتعد عن المحتوى المرفوض أخلاقياً. لكن مبرمجي تشات جي بي تي وعجائب التعلم الآلي الأخرى كافحوا - وسيواصلون الكفاح - لتحقيق هذا النوع من التوازن.


في عام 2016 ، على سبيل المثال ، قام برنامج تي تشات بوت من مايكروسوفت (وهو مقدمة لتشات جي بي تي) بإغراق الإنترنت بمحتوى عنصري وكاره للنساء ، بعد أن لوثه المتصيدون عبر الإنترنت الذين ملأوه ببيانات التدريب الهجومية. كيف تحل المشكلة في المستقبل؟ في غياب القدرة على التفكير من المبادئ الأخلاقية ، تم تقييد تشات جي بي تي بشكل صارخ من قبل مبرمجيه من المساهمة بأي شيء جديد إلى مناقشات مثيرة للجدل - أي مهمة - لقد ضحى بالإبداع من أجل نوع من اللاأخلاقية.


ضع في اعتبارك التبادل التالي الذي أجراه أحدنا (الدكتور واتومول) مؤخرا مع تشات جي بي تي حول ما إذا كان من الأخلاقي تحويل المريخ بحيث يمكنه دعم الحياة البشرية حيث:


لاحظ أنه بالنسبة لكل الأفكار واللغة التي تبدو معقدة ، فإن اللامبالاة الأخلاقية الناتجة عن عدم الذكاء. هنا ، يعرض تشات جي بي تي شيئا مثل تفاهة الشر: الانتحال واللامبالاة والتجنب. إنه يلخص الحجج القياسية في الأدبيات من خلال نوع من الإكمال التلقائي الفائق ، ويرفض اتخاذ موقف بشأن أي شيء ، ولا يدافع عن الجهل فحسب ، بل يفتقر إلى الذكاء ، ويقدم في النهاية دفاعا "يتبع الأوامر فقط" ، وينقل المسؤولية إلى صانعيها.


باختصار ، تشات جي بي تي وإخوانه من البرامج غير قادرة دستوريا على الموازنة بين الإبداع والقيود. إما لأنها تفرط في التوليد (تنتج كل من الحقائق والأكاذيب ، وتؤيد القرارات الأخلاقية وغير الأخلاقية على حد سواء) أو تولدها (وتظهر عدم الالتزام بأي قرارات واللامبالاة بالعواقب). بالنظر إلى اللاأخلاقية والعلم الزائف وعدم الكفاءة اللغوية لهذه الأنظمة ، لا يسعنا إلا أن نضحك أو نبكي على شعبيتها الحالية.

المصدر :
======

The New York Times
Opinion ,Guest Essay , Noam Chomsky: The False Promise of ChatGPT
March 8, 2023
https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html