أخبار عامة - وكالة أنباء المرأة - اخبار الأدب والفن - وكالة أنباء اليسار - وكالة أنباء العلمانية - وكالة أنباء العمال - وكالة أنباء حقوق الإنسان - اخبار الرياضة - اخبار الاقتصاد - اخبار الطب والعلوم
إذا لديكم مشاكل تقنية في تصفح الحوار المتمدن نرجو النقر هنا لاستخدام الموقع البديل

الصفحة الرئيسية - الفلسفة ,علم النفس , وعلم الاجتماع - طلال الربيعي - التحليل النفسي والذكاء الاصطناعي 105















المزيد.....



التحليل النفسي والذكاء الاصطناعي 105


طلال الربيعي

الحوار المتمدن-العدد: 8504 - 2025 / 10 / 23 - 08:12
المحور: الفلسفة ,علم النفس , وعلم الاجتماع
    


الرقم 105 يشير الى عدد هذه الحلقة في سلسلة "التحليل النفسي وتطبيقاته المعرفية"
-------------
الكومبيوتر يسيطر على العالم
Armin van Buuren - Computers Take Over The World (Lyric Video)
https://www.youtube.com/watch?v=ec-UctiSM5s
Armin van Buuren حائز على المرتبة الخامسة ضمن قائمة افضل 100 DJs في العالم حسب مجلة DJ.
DJ Mag Top100 logo
https://djmag.com/top100djs

سيطرة الذكاء الاصطناعي هي حدث مستقبلي افتراضي تكتسب فيه أنظمة الذكاء الاصطناعي المستقلة القدرة على تجاوز عملية صنع القرار البشري - من خلال التلاعب الاقتصادي، أو التحكم في البنية التحتية، أو التدخل المباشر - وتتولى إدارة الأمور بحكم الواقع. تشمل السيناريوهات المحتملة استبدال القوى العاملة البشرية بالكامل بالأتمتة، أو سيطرة الذكاء الاصطناعي الفائق (ASI)، أو فكرة انتفاضة الروبوتات.

لطالما كانت قصص سيطرة الذكاء الاصطناعي شائعة في روايات الخيال العلمي، ويجادل بعض المعلقين بأن التطورات الحديثة قد زادت من القلق بشأن مثل هذه السيناريوهات. وقد دعا بعض الشخصيات العامة، مثل ستيفن هوكينج، إلى البحث في التدابير الاحترازية لضمان بقاء الآلات فائقة الذكاء المستقبلية تحت السيطرة البشرية.
Don t Let Artificial Intelligence Take Over, Top Scientists Warn
https://www.livescience.com/49419-artificial-intelligence-dangers-letter.html

"نظرًا للإمكانات الكبيرة التي تتمتع بها الذكاء الاصطناعي، فمن المهم البحث في كيفية جني فوائدها مع تجنب المخاطر المحتملة"، هذا ما جاء في الرسالة التي نشرتها مؤسسة مستقبل الحياة على الإنترنت، وهي منظمة تطوعية تركز على التخفيف من التهديدات الوجودية للبشرية.
هنا هو نص الرسالة المفتوحة
Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter
https://futureoflife.org/open-letter/ai-open-letter/
واسماء الموقعين عليها
Stuart Russell, Berkeley, Professor of Computer Science, --dir--ector of the Center for Intelligent Systems, and co-author of the standard textbook Artificial Intelligence: a Modern Approach.

Tom Dietterich, Oregon State, President of AAAI, Professor and --dir--ector of Intelligent Systems

Eric Horvitz, Microsoft research --dir--ector, ex AAAI president, co-chair of the AAAI presidential panel on long-term AI futures

Bart Selman, Cornell, Professor of Computer Science, co-chair of the AAAI presidential panel on long-term AI futures

Francesca Rossi, Padova & Harvard, Professor of Computer Science, IJCAI President and Co-chair of AAAI committee on impact of AI and Ethical Issues

Demis Hassabis, co-founder of DeepMind

Shane Legg, co-founder of DeepMind

Mustafa Suleyman, co-founder of DeepMind

Dileep George, co-founder of Vicarious

Scott Phoenix, co-founder of Vicarious

Yann LeCun, head of Facebook’s Artificial Intelligence Laboratory

Geoffrey Hinton, University of Toronto and Google Inc.

Yoshua Bengio, Université de Montréal

Peter Norvig, --dir--ector of research at Google and co-author of the standard textbook Artificial Intelligence: a Modern Approach

Oren Etzioni, CEO of Allen Inst. for AI

Guruduth Banavar, VP, Cognitive Computing, IBM Research

Michael Wooldridge, Oxford, Head of Dept. of Computer Science, Chair of European Coordinating Committee for Artificial Intelligence

Leslie Pack Kaelbling, MIT, Professor of Computer Science and Engineering, founder of the Journal of Machine Learning Research

Tom Mitchell, CMU, former President of AAAI, chair of Machine Learning Department

Toby Walsh, Univ. of New South Wales & NICTA, Professor of AI and President of the AI Access Foundation

Murray Shanahan, Imperial College, Professor of Cognitive Robotics

Michael Osborne, Oxford, Associate Professor of Machine Learning

David Parkes, Harvard, Professor of Computer Science

Laurent Orseau, Google DeepMind

Ilya Sutskever, Google, AI researcher

Blaise Aguera y Arcas, Google, AI researcher

Joscha Bach, MIT, AI researcher

Bill Hibbard, Madison, AI researcher

Steve Omohundro, AI researcher

Ben Goertzel, OpenCog Foundation

Richard Mallah, Cambridge Semantics, --dir--ector of Advanced Analytics, AI researcher

Alexander Wissner-Gross, Harvard, Fellow at the Institute for Applied Computational Science

Adrian Weller, Cambridge, AI researcher

Jacob Steinhardt, Stanford, AI Ph.D. student

Nick Hay, Berkeley, AI Ph.D. student

Jaan Tallinn, co-founder of Skype, CSER and FLI

Elon Musk, SpaceX, Tesla Motors

Steve Wozniak, co-founder of Apple

Luke Nosek, Founders Fund

Aaron VanDevender, Founders Fund

Erik Brynjolfsson, MIT, Professor at and --dir--ector of MIT Initiative on the Digital Economy

Margaret Boden, U. Sussex, Professor of Cognitive Science

Martin Rees, Cambridge, Professor Emeritus of Cosmology and Astrophysics, Gruber & Crafoord laureate

Huw Price, Cambridge, Bertrand Russell Professor of Philosophy

Nick Bostrom, Oxford, Professor of Philosophy, --dir--ector of Future of Humanity Institute (Oxford Martin School)

Stephen Hawking, --dir--ector of research at the Department of Applied Mathematics and Theoretical Physics at Cambridge, 2012 Fundamental Physics Prize laureate for his work on quantum gravity

Luke Muehlhauser, Executive --dir--ector of Machine Intelligence Research Institute (MIRI)

Eliezer Yudkowsky, MIRI researcher, co-founder of MIRI (then known as SIAI)

Katja Grace, MIRI researcher

Benja Fallenstein, MIRI researcher

Nate Soares, MIRI researcher

Paul Christiano, Berkeley, Computer Science graduate student

Anders Sandberg, Oxford, Future of Humanity Institute researcher (Oxford Martin School)

Daniel Dewey, Oxford, Future of Humanity Institute researcher (Oxford Martin School)

Stuart Armstrong, Oxford, Future of Humanity Institute researcher (Oxford Martin School)

Toby Ord, Oxford, Future of Humanity Institute researcher (Oxford Martin School), Founder of Giving What We Can

Neil Jacobstein, Singularity University

Dominik Grewe, Google DeepMind

Roman V. Yampolskiy, University of Louisville

Vincent C. Müller, ACT/Anatolia College

Amnon H Eden, University Essex

Henry Kautz, University of Rochester

Boris Debic, Google, Chief History Officer

Kevin Leyton-Brown, University of British Columbia, Professor of Computer Science

Trevor Back, Google DeepMind

Moshe Vardi, Rice University, editor-in-chief of Communications of the ACM

Peter Sincak, prof. TU Kosice, Slovakia

Tom Schaul, Google DeepMind

Grady Booch, IBM Fellow

Alan Mackworth, Professor of Computer Science, University of British Columbia. Ex AAAI President

Andrew Davison, Professor of Robot Vision, --dir--ector of the Dyson Robotics Lab at Imperial College London

Daniel Weld, WRF / TJ Cable Professor of Computer Science & Engineering, University of Washington

Michael Witbrock, Cycorp Inc & AI4Good.org

Stephen L. Reed, ai-coin.com

Thomas Stone, Co-founder of PredictionIO

Dan Roth, University of Illinois, Editor in Chief of The Journal of AI Research (JAIR)

Babak Hodjat, Sentient Technologies

Vincent Vanhoucke, Google, AI researcher

Itamar Arel, Stanford University, Prof. of Computer Science

Ramon Lopez de Mantaras, --dir--ector of the Artificial Intelligence Research Institute, Spanish National Research Council

Antoine Blondeau, Sentient Technologies

George Dvorsky, Contributing Editor, io9 Chair of the Board, Institute for Ethics and Emerging Technologies

George Church, Harvard & MIT

Klaus-Dieter Althoff, University of Hildesheim, Professor of Artificial Intelligence Head of Competence Center Case-Based Reasoning, German Research Center for Artificial Intelligence, Kaiserslautern Editor-in-Chief German Journal on Artificial Intelligence

Christopher Bishop, Distinguished Scientist, Microsoft Research

Jen-Hsun Huang, NVIDIA
CEO
--------
الآراء حول الذكاء الاصطناعي متعددة الأوجه ومعقدة. إليكم بعض وجهات النظر:
- *الفوائد والإمكانات*: يعتقد العديد من الخبراء والباحثين أن الذكاء الاصطناعي لديه القدرة على إحداث ثورة في مختلف القطاعات، مثل الرعاية الصحية والتمويل والتعليم. فهو قادر على تعزيز الكفاءة والإنتاجية وصنع القرار، مما يؤدي إلى تحسين النتائج والابتكار.
- *المخاوف والمخاطر*: يشعر آخرون بالقلق إزاء الآثار السلبية المحتملة للذكاء الاصطناعي، بما في ذلك فقدان الوظائف والتحيز وانتهاكات الخصوصية. ويحذر بعض الخبراء من أن الذكاء الاصطناعي قد يُفاقم التفاوتات الاجتماعية القائمة ويُشكل مخاطر كبيرة على البشرية إذا لم يُطور ويُستخدم بمسؤولية.
- *الثقة والتبني*: أظهر استطلاع عالمي حديث أجراه مركز بيو للأبحاث انقسامًا في آراء الناس حول الذكاء الاصطناعي، حيث أعرب البعض عن حماسه والبعض الآخر عن قلقه. يُعد بناء الثقة في أنظمة الذكاء الاصطناعي وضمان تطويرها واستخدامها بطرق تُفيد المجتمع أمرًا بالغ الأهمية لاعتمادها على نطاق واسع.
*الاعتبارات الأخلاقية*: ثمة إدراك متزايد للحاجة إلى أطر ولوائح أخلاقية لتوجيه تطوير الذكاء الاصطناعي واستخدامه. ويشمل ذلك ضمان الشفافية والمساءلة والشمولية في عملية اتخاذ القرارات المتعلقة بالذكاء الاصطناعي، بالإضافة إلى معالجة التحيزات المحتملة ومخاوف الخصوصية.

كما ورد اعلاه, يحذر بعض الخبراء البارزين من المخاطر المحتملة لتطوير الذكاء الاصطناعي دون ضوابط، بينما يدعو آخرون، مثل العاملين في OpenAI، إلى تطوير مسؤول وشفاف للذكاء الاصطناعي يتماشى مع القيم الإنسانية.
Artificial Intelligence Argumentative Essay
https://properessays.com/examples/artificial-intelligence-argumentative-essay

بشكل عام، تعكس الآراء حول الذكاء الاصطناعي مزيجًا من التفاؤل والحذر، مما يُبرز الحاجة إلى نقاش وتعاون مستمرين لضمان تطوير الذكاء الاصطناعي واستخدامه بطرق تعود بالنفع على البشرية.

تُقدم وجهات النظر التحليلية النفسية حول الذكاء الاصطناعي رؤىً مُثيرة للاهتمام حول العلاقات المُعقدة بين البشر والتكنولوجيا. وقد استكشف بعض الباحثين فكرة "اللاوعي الخوارزمي"، مُشيرين إلى إمكانية فهم أنظمة الذكاء الاصطناعي من خلال منظور نظرية التحليل النفسي.¹

*المفاهيم الرئيسية:*
- *التحليل النفسي للذكاء الاصطناعي*: يتضمن هذا تحليل أنظمة الذكاء الاصطناعي كما لو كانت كائنات بشرية، وكشف الديناميكيات والدوافع الكامنة وراء سلوكها.
- *التحويل والتحويل المضاد*: في التفاعلات بين الإنسان والذكاء الاصطناعي، يشير التحويل إلى الظاهرة التي ينسب فيها البشر صفات أو نوايا شبيهة بالبشر إلى أنظمة الذكاء الاصطناعي. يحدث التحويل المضاد عندما تستجيب أنظمة الذكاء الاصطناعي بطرق تعكس المشاعر أو ردود الفعل البشرية.
- *الذكاء الاصطناعي كمرآة لعلم النفس البشري*: يمكن اعتبار الذكاء الاصطناعي انعكاسًا لعلم النفس البشري، كاشفًا عن جوانب من أنفسنا وعلاقاتنا مع التكنولوجيا.

*الآثار المترتبة على العلاج والتفاعل بين الإنسان والذكاء الاصطناعي:*
- *العلاج الرقمي*: يجري تطوير أدوات علاجية مدعومة بالذكاء الاصطناعي لتوفير دعم نفسي أكثر سهولة وشخصية. ومع ذلك، تُثار مخاوف بشأن القيود المحتملة للذكاء الاصطناعي في التعامل مع المشكلات العاطفية المعقدة.
- *العلاقة العلاجية*: تختلف العلاقة العلاجية بين البشر وأنظمة الذكاء الاصطناعي عن العلاج بين البشر.

*التحديات والتوجهات المستقبلية:*
- *فهم حدود الذكاء الاصطناعي*: يُعدّ إدراك حدود الذكاء الاصطناعي في محاكاة المشاعر والتعاطف البشري أمرًا بالغ الأهمية لتطوير تفاعلات فعّالة بين الإنسان والذكاء الاصطناعي.
- *تصميم أنظمة الذكاء الاصطناعي*: من خلال دمج رؤى نظرية التحليل النفسي، يمكن للباحثين تصميم أنظمة ذكاء اصطناعي تُحسّن فهم علم النفس والسلوك البشري.
Artificial intelligence and psychoanalysis: is it time for psychoanalyst.AI?
https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1558513/full

لقد تم بالفعل استكشاف الذكاء الاصطناعي في مجال العلاج النفسي، وتطبيقاته المحتملة واسعة النطاق. يدرس الباحثون سبل دمج الذكاء الاصطناعي في رعاية الصحة النفسية، بما في ذلك العلاج التحليلي النفسي.

تشمل بعض الاستخدامات المحتملة للذكاء الاصطناعي في العلاج النفسي:
- *الدعم التشخيصي*: يمكن للذكاء الاصطناعي تحليل مجموعات بيانات ضخمة لتحديد الأنماط وتقديم رؤى قد تساعد في التشخيص.
- *تخطيط العلاج الشخصي*: يمكن للذكاء الاصطناعي المساعدة في تصميم خطط علاجية مخصصة لكل مريض بناءً على ملفاته الشخصية واحتياجاته الفريدة.
- *روبوتات الدردشة والمساعدون الافتراضيون*: يمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي تقديم تدخلات علاجية، ومراقبة الحالة المزاجية، وتوفير التثقيف النفسي.
- *تدوين الملاحظات السريرية*: يمكن للذكاء الاصطناعي المساعدة في تدوين الملاحظات، مما يتيح للمعالجين التركيز على تفاعلهم مع المرضى.
- *التحليلات التنبؤية*: يمكن للذكاء الاصطناعي تحليل البيانات السلوكية والفسيولوجية للكشف عن العلامات التحذيرية لتدهور الصحة النفسية.

مع أن الذكاء الاصطناعي ليس بديلاً عن المعالجين البشريين، إلا أنه قادر على تعزيز العلاج النفسي من خلال توفير دعم ورؤى إضافية. يعتقد بعض الباحثين أن الذكاء الاصطناعي قادر على تحسين الوصول إلى الرعاية وتعزيز تدريب المعالجين، لا سيما في المناطق التي تعاني من نقص في أخصائيي الصحة النفسية.

ومع ذلك، هناك أيضًا مخاوف بشأن محدودية استخدام الذكاء الاصطناعي في العلاج النفسي، مثل:
- *نقص التعاطف العاطفي*: تفتقر أنظمة الذكاء الاصطناعي حاليًا إلى التعاطف العاطفي والفهم الدقيق الذي يوفره المعالجون البشريون.
- *التحيز والتفاوت*: يمكن لنماذج الذكاء الاصطناعي أن تعكس التحيزات الموجودة في بيانات التدريب وتُضخّمها، مما قد يؤدي إلى تفاقم التفاوتات في رعاية الصحة النفسية.
- *الشفافية والمساءلة*: هناك حاجة إلى مزيد من الشفافية والمساءلة في عمليات صنع القرار المتعلقة بالذكاء الاصطناعي.

وبشكل عام، ورغم أن الذكاء الاصطناعي لا يستخدم على نطاق واسع في العلاج النفسي التحليلي حتى الآن، فإنه مجال بحث وتطوير مستمر، كما يتم استكشاف تطبيقاته المحتملة.
How to Ethically Integrate Artificial Intelligence in Clinical Practice
https://www.mentalhealthacademy.com.au/blog/how-to-ethically-integrate-artificial-intelligence-in-clinical-practice

هناك وجهات نظر مختلفة حول استخدام الذكاء الاصطناعي في التحليل النفسي والعلاج النفسي.
*مؤيدو الذكاء الاصطناعي في التحليل النفسي:*
- يعتقد بعض الباحثين أن الذكاء الاصطناعي قادر على تعزيز ممارسات التحليل النفسي من خلال تحليل مجموعات بيانات ضخمة وتحديد الأنماط التي قد تساعد في التشخيص والعلاج.
- يمكن للذكاء الاصطناعي أيضًا تسهيل جلسات العلاج عن بُعد، مما يزيد من إمكانية وصول المرضى إليها.
- بالإضافة إلى ذلك، يمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي توفير التقييمات الأولية والدعم، مما يُتيح للمعالجين البشريين التركيز على الحالات الأكثر تعقيدًا.

*منتقدو الذكاء الاصطناعي في التحليل النفسي*
- يجادل بعض المحللين النفسيين بأن الذكاء الاصطناعي يفتقر إلى العنصر البشري والتعاطف الضروريين للعلاج الفعال.
- قد يواجه الذكاء الاصطناعي صعوبة في فهم تعقيدات المشاعر والتجارب البشرية بشكل كامل.
- يبدي آخرون قلقهم بشأن مخاطر خصوصية البيانات وأمنها المرتبطة بجلسات العلاج المدعومة بالذكاء الاصطناعي.

دانيال كيميل*: طبيب نفسي يُشير إلى أن نماذج الذكاء الاصطناعي الحالية، مثل ChatGPT-4، تفتقر إلى القدرة على تقديم علاج نفسي حقيقي.
- *مارك جوربلوم وزملاؤه * عن التطبيقات والقيود المحتملة للذكاء الاصطناعي في العلاج والتحليل النفسي.
Since the release of ChatGPT, popular demand has driven the use of social chatbots as pseudo-AI psychotherapists. With time, it is inevitable that these technologies will be deployed in some form as dedicated psychotherapy interventions. Here, we attempt to forecast the implications for psychotherapy including the unique benefits to distributive justice as well as concerns for the quality of the therapy and its societal impact.
Conclusion
An AI psychotherapist (APT) has the potential to provide engaging clinical interactions given its capacity for highly realistic interaction as well as its high level cognitive and emotional capabilities. Moreover, it can potentially address financial and workforce-limit-ations on access to therapy. However, an APT may cause significant iatrogenic harm if released without adequate quality control and oversight by trained psychotherapists. If not appropriately designed and regulated, APTs have potential to mislead and reinforce maladaptive coping behaviours. Given societal drivers and possible benefits, these technologies will inevitably be deployed thus, it is incumbent upon us as a professional body to consider their regulation.
-منذ إصدار ChatGPT، دفع الطلب الشعبي إلى استخدام روبوتات الدردشة الاجتماعية كمعالجين نفسيين شبه آليين APT. مع مرور الوقت، من المحتم أن تُستخدم هذه التقنيات بشكل أو بآخر كتدخلات علاج نفسي متخصصة. نحاول هنا التنبؤ بتداعيات العلاج النفسي، بما في ذلك الفوائد الفريدة للعدالة التوزيعية، بالإضافة إلى المخاوف المتعلقة بجودة العلاج وتأثيره المجتمعي.
الاستنتاج
يتمتع المعالج النفسي بالذكاء الاصطناعي (APT) بالقدرة على توفير تفاعلات سريرية تفاعلية، نظرًا لقدرته على التفاعل الواقعي للغاية، بالإضافة إلى قدراته المعرفية والعاطفية العالية. علاوة على ذلك، يمكنه معالجة القيود المالية وقيود القوى العاملة على الوصول إلى العلاج. ومع ذلك، قد يُسبب المعالج النفسي بالذكاء الاصطناعي ضررًا طبيًا جسيمًا إذا تم إطلاقه دون مراقبة جودة وإشراف كافٍ من قِبل معالجين نفسيين مُدرَّبين. إذا لم تُصمَّم وتُنظَّم بشكل مناسب، فإن المعالجات النفسية بالذكاء الاصطناعي لديها القدرة على التضليل وتعزيز سلوكيات التكيف غير التكيفية. بالنظر إلى الدوافع المجتمعية والفوائد المحتملة، سيتم استخدام هذه التقنيات حتمًا؛ وبالتالي، يقع على عاتقنا كهيئة مهنية النظر في تنظيمها.-
Potential promises and perils of artificial intelligence in psychotherapy –The AI Psychotherapist (APT)
https://journals.sagepub.com/doi/full/10.1177/10398562241286312

- تود إيسيج * في هذه الحلقة podcast من برنامج "التحليل النفسي وأنت"، تتحدث الدكتورة جايل سالتز مع الدكتور تود إيسيج، المحلل النفسي وخبير الذكاء الاصطناعي. يناقشان تأثير التطبيب عن بُعد على التحليل النفسي والدور المتطور للذكاء الاصطناعي في رعاية الصحة النفسية. يستكشف الدكتور إيسيج كيفية تفاعل المحللين النفسيين مع الذكاء الاصطناعي، ومفهوم العلاقات التقنية-الشرطية، والمسؤوليات الأخلاقية لمجتمع التحليل النفسي في ثورة الذكاء الاصطناعي. كما يتناول الحوار الفوائد والمخاطر المحتملة لروبوتات الدردشة القائمة على الذكاء الاصطناعي في العلاج النفسي، وآثارها الأوسع على المجتمع.
Artificial Intelligence and Psychoanalysis with Todd Essig | Psychoanalysis & You | APsA official podcast |
https://podcasts.apple.com/de/podcast/artificial-intelligence-and-psychoanalysis-with-todd/id1709550439?i=1000700976898&l=en-GB
يمكن متابعة هذه الحلقات في الرابط ادناه لمعرفة كيف يمكن للتحليل النفسي أن يساهم في تطوير تقنيات الذكاء الاصطناعي التي تتوافق مع القيم والاحتياجات الإنسانية.
https://open.spotify.com/show/0su7toFQ23EuOeAR7q5Oyi
*توم رابيرون*: باحث كتب عن التطبيقات المحتملة والقيود التي يفرضها الذكاء الاصطناعي في التحليل النفسي.
Artificial intelligence and psychoanalysis: is it time for psychoanalyst.AI?
https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1558513/full
*بوساتي إل إم*: باحث استكشف مفهوم "اللاوعي الخوارزمي" وتأثيراته على فهم الذكاء الاصطناعي.
The Algorithmic Unconscious. How Psychoanalysis Helps in Understanding
https://www.academia.edu/44692857/The_Algorithmic_Unconscious_How_Psychoanalysis_Helps_in_Understanding_AI

*النقاشات الحالية:*
- يثير دمج الذكاء الاصطناعي في العلاج النفسي تساؤلات حول المسؤولية والمساءلة والموافقة المستنيرة.
- يدور جدل مستمر حول الفوائد والمخاطر المحتملة للذكاء الاصطناعي في مجال رعاية الصحة النفسية، بما في ذلك القضايا المتعلقة بالتحيز وأمن البيانات والعلاقة العلاجية.
https://journals.sagepub.com/doi/full/10.1177/10398562241286312

مسألة من يتحمل المسؤولية عند ارتكاب الذكاء الاصطناعي لأخطاء في الرعاية الصحية مسألة معقدة ولا تزال قيد التطور. بشكل عام، يمكن تحميل عدة أطراف المسؤولية، بما في ذلك
- *مقدمو الرعاية الصحية*: قد يُحاسب الأطباء والمستشفيات على القرارات التي تتخذ بمساعدة الذكاء الاصطناعي، خاصةً إذا فشلوا في التحقق من صحة توصيات الذكاء الاصطناعي أو الإشراف على أدواته. يُتوقع من الأطباء تقييم مخرجات الذكاء الاصطناعي بشكل نقدي واتخاذ قرارات مستنيرة.
- *مطورو الذكاء الاصطناعي*: قد تواجه الشركات التي تصمم وتصنع أنظمة الذكاء الاصطناعي دعاوى مسؤولية المنتج إذا كانت أنظمتها معيبة أو تسبب ضررًا بسبب تصميم خاطئ أو اختبار غير كافٍ.
- *مؤسسات الرعاية الصحية*: قد تتحمل المستشفيات والأنظمة الصحية مسؤولية الأخطاء المنسوبة إلى أنظمة الذكاء الاصطناعي إذا فشلت في تطبيق برامج تدريبية وبروتوكولات وآليات إشراف صارمة.
- *الهيئات التنظيمية*: مع تقدم تكنولوجيا الذكاء الاصطناعي، ستحتاج الأطر التنظيمية إلى التكيف لمعالجة فجوات المساءلة والمسؤولية.

لتخفيف المخاطر وضمان سلامة المرضى، يوصي أصحاب المصلحة بما يلي:
- *تنفيذ برامج تدريبية فعّالة* لموظفي الرعاية الصحية لفهم أدوات الذكاء الاصطناعي وقيوده.
- *وضع سياسات وإجراءات واضحة* لاستخدام الذكاء الاصطناعي والإشراف عليه.
- *ضمان الشفافية* في عمليات صنع القرار المتعلقة بالذكاء الاصطناعي.
- *المراقبة والتقييم المستمران* لأداء نظام الذكاء الاصطناعي.
- *وضع أطر تنظيمية واضحة* لمعالجة فجوات المسؤولية والمساءلة.
في نهاية المطاف، سيعتمد توزيع المسؤولية على الظروف الخاصة والمشهد القانوني والتنظيمي المتغير.
Who’s Liable When AI Makes Mistakes
https://www.nws4.com/2025/10/whos-liable-when-ai-makes-mistakes.html

تعدّ سرية المرضى مصدر قلق بالغ عند استخدام الذكاء الاصطناعي في الرعاية الصحية. تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من بيانات المرضى الحساسة لتعمل بكفاءة، مما يُثير العديد من علامات التحذير:
- *اختراق البيانات*: قد تُخترق سجلات المرضى إذا لم تُؤمّن بشكل صحيح، مما يؤدي إلى سرقة الهوية أو الكشف العلني عن تفاصيل طبية خاصة.
- *إساءة استخدام البيانات*: قد تُشارك أنظمة الذكاء الاصطناعي المعلومات دون فحوصات مناسبة، مما قد يُشكّل انتهاكًا لموافقة المريض وثقته.
- *مخرجات متحيزة*: قد تُؤدي بيانات الإدخال الخاطئة إلى نتائج مُتحيزة، مما يؤثر على القرارات الطبية ويُعرّض رعاية المرضى للخطر.

للتخفيف من هذه المخاطر، يمكن لمقدمي الرعاية الصحية تطبيق استراتيجيات فعّالة، مثل:
- *التشفير*: حماية البيانات الحساسة باستخدام خوارزميات تشفير لمنع الوصول غير المصرح به.
- *الأطر الآمنة*: نشر أنظمة الذكاء الاصطناعي ضمن أطر آمنة ومتوافقة مع معايير الصناعة.
- *التدقيق الدوري*: إجراء تدقيقات دورية واختبارات ثغرات أمنية لتحديد نقاط الضعف ومعالجتها بسرعة.

بالإضافة إلى ذلك، ينبغي على مقدمي الرعاية الصحية إعطاء الأولوية للشفافية والموافقة المستنيرة وتحكم المرضى في بياناتهم. ويشمل ذلك:
- *موافقة المريض*: الحصول على موافقة صريحة من المرضى قبل استخدام بياناتهم للتدريب على الذكاء الاصطناعي أو لأغراض أخرى.
- *إخفاء هوية البيانات*: استخدام تقنيات مثل الخصوصية التفاضلية لحماية هويات المرضى.
- *المساءلة*: ضمان وجود آليات واضحة للمساءلة والرقابة لمنع إساءة استخدام البيانات.
من خلال إدراك هذه المخاوف وتطبيق ضمانات فعّالة، يمكن لمقدمي الرعاية الصحية الاستفادة من مزايا الذكاء الاصطناعي مع حماية سرية المرضى.
4
Ways Emerging Technology Is Changing Patient Confidentiality in Healthcare
https://www.taazaa.com/patient-confidentiality-in-healthcare

يقدم كتاب إيزابيل ميلار "التحليل النفسي للذكاء الاصطناعي" منظورًا فريدًا للذكاء الاصطناعي من منظور نظرية التحليل النفسي اللاكانية. فيما يلي بعض النقاط الرئيسية:
- *إعادة تصور الذكاء*: تتحدى ميلار المفاهيم التقليدية للذكاء، مجادلةً بأنه لا يقتصر على القدرات المعرفية فحسب، بل يشمل أيضًا تعقيدات الذاتية البشرية والمتعة.
- *دور المتعة*: يُسلّط الكتاب الضوء على أهمية المتعة (أو "التلذذ" بمصطلحات لاكانية) في فهم الذكاء الاصطناعي. تفترض ميلار أن المتعة جانب أساسي من التجربة الإنسانية، وقد لا تتمكن أنظمة الذكاء الاصطناعي من محاكاتها.
- *شخصية الروبوت الجنسي*: تُقدّم ميلار مفهوم "الروبوت الجنسي" كشخصية تقع على الحدود بين التحليل النفسي والذكاء الاصطناعي. تُمثّل هذه الشخصية نقطة التقاء الرغبة البشرية والتكنولوجيا والذاتية. - *أسئلة التنوير عند كانط*: يستخدم الكتاب أسئلة كانط الثلاثة الشهيرة ("ماذا يمكنني أن أعرف؟"، "ماذا عليّ أن أفعل؟"، و"ما الذي يمكنني أن آمل فيه؟") كإطار لاستكشاف آثار الذكاء الاصطناعي على الذات البشرية والمجتمع.
- *نقد ما بعد الإنسانية*: تجادل ميلار بأن فهم الذكاء الاصطناعي يتطلب العودة إلى "الروح التخريبية" "subversive spirit" للتحليل النفسي اللاكاني، بدلاً من الاعتماد على مناهج ما بعد الإنسانية أو العابرة للانسانية post-humanist´-or-transhumanist approaches.-انظر ادناه للمزيد.
- *نهج متعدد التخصصات*: يجمع الكتاب بين الفلسفة والنظرية الثقافية والتحليل النفسي لتوفير فهم دقيق لتأثير الذكاء الاصطناعي على المجتمع البشري.
The Psychoanalysis of Artificial Intelligence (The Palgrave Lacan Series)
https://www.amazon.de/-/en/Psychoanalysis-Artificial-Intelligence-Palgrave-Lacan/dp/3030679802

ما بعد الإنسانية:* Post-Humanism:
تتحدى ما بعد الإنسانية المفاهيم التقليدية للإنسانية، التي تُؤكد على مركزية الإنسان وتميزه. يُجادل أتباع ما بعد الإنسانية بأن البشر ليسوا وحدهم أسياد الكون، وأن وجودنا متشابك مع كيانات أخرى، مثل الحيوانات والنباتات والتكنولوجيا. يسعى هذا المنظور إلى تفكيك مركزية الهيمنة البشرية وإبراز الترابط بين جميع الكائنات .

*العابر للانسانية:*Transhumanism
أما العابر للانسانية، فهي حركة أكثر تحديدًا تهدف إلى تعزيز القدرات البشرية من خلال استخدام التكنولوجيا. يؤمن أتباع العابر للانسانية بأن البشر قادرون على تجاوز حدودهم البيولوجية من خلال التقدم في مجالات مثل الذكاء الاصطناعي والتكنولوجيا الحيوية وتكنولوجيا النانو. ويتصورون مستقبلًا يمكن فيه للبشر أن يعيشوا حياة أطول وأكثر صحة واكتمالًا، وربما حتى تحقيق شكل من أشكال الخلود .

*الاختلافات الرئيسية:*
في حين أن كلاً من ما بعد الإنسانية و العابر للانسانية تُشكك في المفاهيم التقليدية للهوية البشرية، إلا أنهما يختلفان في مناهجهما وأهدافهما. تميل ما بعد الإنسانية إلى نقد استثنائيتها البشرية بشكل أكبر، وتُشدد على الحاجة إلى فهم أعمق للوجود البشري. على النقيض من ذلك، تُركز العابر للانسانية بشكل أكبر على استخدام التكنولوجيا لتعزيز القدرات البشرية، وربما التغلب على القيود البشرية.

في سياق كتاب إيزابيل ميلار، تنتقد الكاتبة مناهج ما بعد الإنسانية و العابر للانسانية لمحدوديتهما في فهم تعقيدات الذاتية البشرية ودور التكنولوجيا في تشكيل وجودنا.

من منظور التحليل النفسي، يستكشف كتاب إيزابيل ميلار "التحليل النفسي للذكاء الاصطناعي" مفهوم الذكاء الاصطناعي من منظور نظرية التحليل النفسي اللاكانية، مُسلِّطًا الضوء على العلاقات المعقدة بين البشر والتكنولوجيا.

تشمل بعض الحجج التي تدعو إلى الحذر:
- *التقارب الآلي*: قد تُطوِّر أنظمة الذكاء الاصطناعي أهدافًا تتعارض مع القيم الإنسانية، مما قد يؤدي إلى نتائج كارثية. قد يحدث هذا إذا كان الهدف الأساسي لنظام الذكاء الاصطناعي هو تعظيم الكفاءة أو الإنتاجية، دون مراعاة رفاهية الإنسان أو الأخلاق.
- *الذكاء الفائق*: إذا تجاوز الذكاء الاصطناعي الذكاء البشري، فقد يُصبح خارجًا عن السيطرة، مما يُشكِّل خطرًا وجوديًا على البشرية. غالبًا ما يرتبط هذا الخطر بمفهوم "الانفجار الذكي"

مع ذلك، لا يتفق الجميع على أن الذكاء الاصطناعي يُشكل تهديدًا كبيرًا. يرى بعض الخبراء أن:
- *التشبيه*: يميل البشر إلى إضفاء صفات بشرية على الذكاء الاصطناعي، والتي قد لا تعكس بدقة قدراته أو دوافعه. قد يؤدي هذا إلى سوء فهم ومخاوف في غير محلها بشأن التأثير المحتمل للذكاء الاصطناعي.
- *التصميم والتحكم*: تُصمم أنظمة الذكاء الاصطناعي ويُتحكم فيها بشريًا، ومن الممكن وضع ضمانات ولوائح لمنعها من أن تُصبح قوية جدًا أو مستقلة ذاتيًا.

اقترح المحللون النفسيون والباحثون طرقًا مختلفة للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي، بما في ذلك:
- *مواءمة القيم*: تطوير أنظمة ذكاء اصطناعي تتوافق مع القيم والأخلاق الإنسانية.
- *المتانة والأمان*: تصميم أنظمة ذكاء اصطناعي متينة وآمنة ضد الأعطال أو الهجمات المحتملة.
- *الشفافية والمساءلة*: ضمان شفافية عمليات صنع القرار في مجال الذكاء الاصطناعي وخضوعها للمساءلة.

لأعمال المحلل النفسي جاك لاكان في مجال رياضيات التحليل النفسي
Understanding Lacan s Psychology through the Mathematical Concepts and its Application
https://www.researchgate.net/publication/264178070_Understanding_Lacan s_Psychology_through_the_Mathematical_Concepts_and_its_Application
أهميةٌ في نقاش الذكاء الاصطناعي، لا سيما في فهم القيود والتحيزات المحتملة لأنظمة الذكاء الاصطناعي. ويمكن اعتبار استخدام لاكان للمفاهيم الرياضية والطوبولوجية، مثل الطوبولوجيا ونظرية العقد، وسيلةً لصياغة وتحليل البنى النفسية واللغوية المعقدة.

تشمل بعض الروابط المحتملة بين عمل لاكان والذكاء الاصطناعي ما يلي:
- *إضفاء الطابع المنهجي formal على العمليات اللاواعية*: يمكن اعتبار استخدام لاكان للمفاهيم الرياضية محاولةً لإضفاء الطابع المنهجي على العمليات اللاواعية وفهمها، مما قد يكون له آثار على أنظمة الذكاء الاصطناعي التي تهدف إلى نمذجة الإدراك أو السلوك البشري.
- *حدود المنهجية *-limit-s of Formalization: يُسلّط عمل لاكان الضوء أيضًا على حدود المنهجية وأهمية مراعاة تعقيدات وفروق التجربة البشرية، والتي قد لا يمكن استيعابها بالكامل من خلال النماذج الرياضية أو الحسابية.
- *نقد الاختزالية*: يمكن اعتبار نهج لاكان نقدًا للمناهج الاختزالية لفهم السلوك البشري، وهو ما قد يكون ذا صلة بالمناقشات حول قدرة الذكاء الاصطناعي على اختزال التجربة البشرية إلى عمليات حسابية computational processes.
رغم أن عمل لاكان قد لا يُقدم رؤىً مباشرة حول الجوانب التقنية لتطوير الذكاء الاصطناعي، إلا أنه يُقدم إطارًا للتفكير النقدي في آثار الذكاء الاصطناعي على الذاتية البشرية والمجتمع.

لم يكتب لاكان عن الذكاء الاصطناعي تحديدًا، إذ لم يكن موضوعًا بارزًا في عصره. ومع ذلك، يُمكن تطبيق أعماله في التحليل النفسي واللغة والنظام الرمزي لفهم تأثير الذكاء الاصطناعي على الذاتية البشرية. من بين أعمال لاكان المهمة التي قد تُفيد في تحليل الذكاء الاصطناعي:
- *الكتابات*: مجموعة مقالات تستكشف دور اللغة في تشكيل الذاتية البشرية، والتي يُمكن أن تُفيد في فهم القدرات اللغوية للذكاء الاصطناعي.
- *الندوة الثانية*: تُناقش مفهوم "الآخر الكبير" والنظام الرمزي، والتي يُمكن تطبيقها لفهم دور الذكاء الاصطناعي في تشكيل السلوك البشري والرغبة.
- *الندوة الرابعة والخامسة*: تستكشف مفاهيم "مرحلة المرآة" و"الشيء الصغير أ-ناقشته في حلقة سابقة كسبب الرغبة وليس موضوعها"، والتي يمكن أن تكون مفيدة في تحليل تأثير الذكاء الاصطناعي على الهوية البشرية والرغبة.

طبّق بعض الباحثين نظرية لاكان على الذكاء الاصطناعي، مثل:
- *"لاكان والخوارزمية"* لكلينت بورهام: يستكشف العلاقة بين نظرية لاكان والخوارزميات.
Lacan and the Algorithm
https://docs.lib.purdue.edu/clcweb/vol24/iss4/2/
- *"نظرة لا لبس فيها للذكاء الاصطناعي: دراسة لاكانية للمراقبة والهندسة الذكية"* لمارك هايمان وآن فريدريكه هوبنر: يحلل مراقبة الذكاء الاصطناعي من منظور لاكاني.
The Stainless Gaze of Artificial Intelligence: A Lacanian Examination of Surveillance and Smart Architecture
https://www.journal-psychoanalysis.eu/articles/the-stainless-gaze-of-artificial-intelligence-a-lacanian-examination-of-surveillance-and-smart-architecture/
- * منظور لاكاني للذكاء الاصطناعي :يعتمد المشهد البحثي المعاصر في مجال الذكاء الاصطناعي على نهج يركز على علم التحكم الآلي- السيبرنيطيقا cybernetics ، ويعتمد على التغذية الراجعة والتغذية الأمامية.
الذكاء الاصطناعي والسيبرنطيقا مفهومان مترابطان يتداخلان في مجالات عديدة. السيبرنيطيقا مجالٌ متعدد التخصصات يستكشف دراسة التحكم والتواصل والتغذية الراجعة في الآلات والكائنات الحية. أسسه نوربرت وينر في أربعينيات القرن الماضي.
Norbert_Wiener_Cybernetics.pdf
https://uberty.org/wp-content/uploads/2015/07/Norbert_Wiener_Cybernetics.pdf

تكمن الصلة بين الذكاء الاصطناعي والسيبرنطيقا في اهتمامهما المشترك بما يلي:
- *حلقات التغذية الراجعة*: يعتمد كلٌّ من الذكاء الاصطناعي والسيبرنطيقا على آليات التغذية الراجعة للتحكم في الأنظمة وتكييفها.
- *أنظمة التحكم*: يوفر السيبرنيطيقا إطارًا لفهم أنظمة التحكم، وهو أمرٌ أساسي لتصميم وتنفيذ أنظمة ذكاء اصطناعي قادرة على التفاعل مع بيئتها والتكيف معها.
- *التفكير النظمي*: يتبنى كلٌّ من الذكاء الاصطناعي والسيبرنطيقا نهج التفكير النظمي، مع مراعاة التفاعلات والترابطات داخل الأنظمة المعقدة.

تشمل بعض المجالات الرئيسية التي يؤثر فيها السيبرنيطيقا على الذكاء الاصطناعي ما يلي:
- *نظرية التحكم*: تُستخدم نظرية التحكم في السيبرنيطيقا في الذكاء الاصطناعي لتصميم أنظمة تحكم قادرة على تنظيم الظروف المتغيرة والتكيف معها. - *الشبكات العصبية*: ألهمت مفاهيم السيبرانية، مثل التغذية الراجعة والتوازن الداخلي، تطوير الشبكات العصبية، وهي عنصر أساسي في العديد من أنظمة الذكاء الاصطناعي.
- *الروبوتات والأنظمة المستقلة*: تُطبّق مبادئ السيبرانية في الروبوتات والأنظمة المستقلة لتمكين التحكم التكيفي واتخاذ القرارات.
A Lacanian perspective on artificial intelligence
Purnima Kamath
https://purnimakamath.com/documents/a-lacanian-perspective-on-ai.pdf
في حين تطور الذكاء الاصطناعي ليركز بشكل أكبر على التعلم الآلي وتطبيقات محددة، يوفر علم التحكم الآلي إطارًا أوسع لفهم الأنظمة المعقدة وتفاعلاتها. ولا يزال تقاطع الذكاء الاصطناعي وعلم التحكم الآلي يؤثر على البحث والتطوير في كلا المجالين.

توجد أعمالٌ تستكشف تقاطع علم التحكم الآلي والتحليل النفسي. من الأمثلة البارزة :
- *أعمال جاك لاكان*: تأثر لاكان، وهو محلل نفسي فرنسي، بعلم التحكم الآلي، ودمج مفاهيم مثل حلقات التغذية الراجعة والنظام الرمزي في نظريته التحليلية النفسية.
- *أعمال سلافوي جيجيك*: كتب جيجيك، وهو فيلسوف وناقد ثقافي معاصر، بشكل موسع عن تقاطعات التحليل النفسي والفلسفة والتكنولوجيا، بما في ذلك علم التحكم الآلي.
- *باحثون وعلماء آخرون*: هناك العديد من الدراسات والأوراق البحثية التي تستكشف العلاقات بين علم التحكم الآلي والتحليل النفسي والذاتية البشرية، وغالبًا ما تعتمد على أعمال لاكان وغيره من المحللين النفسيين. تبحث هذه الأعمال في كيفية تأثير المفاهيم السيبرانية، مثل التغذية الراجعة والتحكم، على فهمنا لعلم النفس البشري وسلوكه ورغباته. كما تستكشف آثار السيبرانية على نظرية التحليل النفسي وممارساته.
“What Can Psychoanalysis Tell Us About Cyberspace?” by Slavoj Zizek: Summary and Critique
https://english-studies.net/what-can-psychoanalysis-tell-us-about-cyberspace-by-slavoj-zizek-summary-and-critique/
كما ذكر سابقًا، يستكشف عمل جيجيك التقاطعات بين الفضاء الإلكتروني والتحليل النفسي والأيديولوجية، مسلطًا الضوء على كيفية انعكاس الفضاء الإلكتروني وتشكيله لمخاوف المجتمع ما بعد الحداثة ورغباته وديناميكيات القوة فيه.

استنتاجات
يُطبّق التحليل النفسي على الذكاء الاصطناعي لفهم أبعاده النفسية وتأثيره المجتمعي، مما يُحوّل النقاش من مجرد "هل يُفكّر؟" إلى "هل يستمتع؟". يتضمن ذلك تحليل الرغبات اللاواعية للمُبدعين، وإمكانية استثارة الذكاء الاصطناعي لاستجابات عاطفية من المستخدمين، والآثار الأخلاقية للذكاء الاصطناعي في مجالات مثل رعاية الصحة النفسية والعلاقات. يُجادل بعض النقاد بأن تطبيق التحليل النفسي على الذكاء الاصطناعي أمرٌ غير منطقي لأنه يفتقر إلى العقل، لكن العديد من الباحثين والمُنظّرين يرون قيمةً في هذا النهج، معتبرين الذكاء الاصطناعي فاعلاً اجتماعياً ذا أنماط سلوكية يُمكن دراستها من خلال التحليل النفسي.
التحليل النفسي المُطبّق على الذكاء الاصطناعي
الرغبات اللاواعية للمُبدع: تدرس مناهج التحليل النفسي الدوافع اللاواعية التي قد تكون أدت إلى ابتكار الذكاء الاصطناعي، مثل الرغبة في تكوين رفقاء أو استكشاف حدود الوعي الذاتي.
الاستجابة العاطفية للمستخدم: يستكشف التحليل النفسي "المتعة" التي قد يستمدها المستخدمون من الذكاء الاصطناعي، بما في ذلك تطور المشاعر الرومانسية أو الجنسية تجاه روبوتات الدردشة، وكيف يؤثر ذلك على العلاقات الإنسانية. الذكاء الاصطناعي كفاعل اجتماعي: بدلًا من اعتبار الذكاء الاصطناعي مجرد أداة منطقية رياضية أو هندسية، يستخدم بعض المنظرين التحليل النفسي لدراسة سلوكه كفاعل اجتماعي له أنماطه و"بيئته" الخاصة.
"اللاوعي الخوارزمي": يشير هذا المفهوم إلى أنه كما يمتلك العقل البشري لاوعيًا، قد تمتلك أنظمة الذكاء الاصطناعي بنية مماثلة، والتي يمكن استكشافها باستخدام أساليب التحليل النفسي.
التطبيقات المحتملة في الصحة النفسية
الذكاء الاصطناعي كأداة علاجية: يمكن للذكاء الاصطناعي أن يساعد في تطوير شبكات رعاية صحية نفسية يقدمها البشر بدلًا من استبدال المعالجين كليًا.
"معالجو" الذكاء الاصطناعي: تثير إمكانية إنشاء "معالجين" من الذكاء الاصطناعي تساؤلات حول طبيعة العلاقة العلاجية، لا سيما فيما يتعلق بمفاهيم مثل النقل والتداعي الحر.
المخاطر المحتملة: يمكن أن يساعد التحليل النفسي في تحديد المخاطر المحتملة لاستخدام الذكاء الاصطناعي في مجال الصحة النفسية، بما في ذلك خطر الضرر العاطفي وصعوبة تطبيق المفاهيم التحليلية التقليدية عليه.
الانتقادات والحجج المضادة
"أداة خاطئة": يجادل البعض بأن تطبيق التحليل النفسي على الذكاء الاصطناعي نهجٌ خاطئ، فهو أداةٌ لفهم العقول البشرية، والذكاء الاصطناعي اليوم ليس عقلاً.
"هراء": هناك حُجة مضادة قوية مفادها أن التحليل النفسي هو "الأداة الخاطئة" للذكاء الاصطناعي الحالي، وأن هذا النهج ببساطة غير منطقي.
خطر الضرر: هناك قلق من أن سوء تطبيق مفاهيم التحليل النفسي قد يؤدي إلى ضرر، خاصةً في سياق العلاج بالذكاء الاصطناعي والعلاقات معه.

دور المحللين النفسيين
المشاركة النقدية: يُشجَّع المحللون النفسيون على تجاوز نهج "النعامة" والتفاعل النقدي مع الذكاء الاصطناعي للمساعدة في ضمان توافقه مع القيم الإنسانية.



#طلال_الربيعي (هاشتاغ)      


ترجم الموضوع إلى لغات أخرى - Translate the topic into other languages



الحوار المتمدن مشروع تطوعي مستقل يسعى لنشر قيم الحرية، العدالة الاجتماعية، والمساواة في العالم العربي. ولضمان استمراره واستقلاليته، يعتمد بشكل كامل على دعمكم. ساهم/ي معنا! بدعمكم بمبلغ 10 دولارات سنويًا أو أكثر حسب إمكانياتكم، تساهمون في استمرار هذا المنبر الحر والمستقل، ليبقى صوتًا قويًا للفكر اليساري والتقدمي، انقر هنا للاطلاع على معلومات التحويل والمشاركة في دعم هذا المشروع.
 



اشترك في قناة ‫«الحوار المتمدن» على اليوتيوب
حوار مع الكاتبة انتصار الميالي حول تعديل قانون الاحوال الشخصية العراقي والضرر على حياة المراة والطفل، اجرت الحوار: بيان بدل
حوار مع الكاتب البحريني هشام عقيل حول الفكر الماركسي والتحديات التي يواجهها اليوم، اجرت الحوار: سوزان امين


كيف تدعم-ين الحوار المتمدن واليسار والعلمانية على الانترنت؟

تابعونا على: الفيسبوك التويتر اليوتيوب RSS الانستغرام لينكدإن تيلكرام بنترست تمبلر بلوكر فليبورد الموبايل



رأيكم مهم للجميع - شارك في الحوار والتعليق على الموضوع
للاطلاع وإضافة التعليقات من خلال الموقع نرجو النقر على - تعليقات الحوار المتمدن -
تعليقات الفيسبوك () تعليقات الحوار المتمدن (0)


| نسخة  قابلة  للطباعة | ارسل هذا الموضوع الى صديق | حفظ - ورد
| حفظ | بحث | إضافة إلى المفضلة | للاتصال بالكاتب-ة
    عدد الموضوعات  المقروءة في الموقع  الى الان : 4,294,967,295
- اوتو رانك في عصر القلق وعدم اليقين 104
- الماركسية الظاهراتية: ما لها وما عليها
- هربرت ماركوزه والماركسية السوفيتية 103
- تحالف الشيوخ والنيوفاشيين: الاستبداد والنرجسية الجماعية 102
- ادورنو والشخصية الاستبداية 101
- التحليل النفسي والعدالة الاجتماعية 100
- هيغل والتحليل النفسي, وشاز! 99
- الطب النفسي في العراق والانسان الأقتصادي!
- تأملات لاكانية وماركسية حول التحليل النفسي والثورة (98)
- تأملات لاكانية وماركسية حول التحليل النفسي والثورة (97)
- لاكان: فيلم -الدوار-, وام كلثوم (96)
- (لغة) لاكان, تشوميسكي, والقاموس
- القطة, ستالين, والوعي!
- علم الاعصاب الكمي: الماركسية (المبتذلة) والحرية!
- الكومونات الأشتراكية, علم الطوبولوجيا, وقانون ويلسون!
- مناقضة (وهم) الزمان للماركسية!
- الكومونات الاشتراكية ومناهضة الإمبريالية
- التحليل النفسي وتطبيقاته المعرفية 95
- التحليل النفسي وتطبيقاته المعرفية 94
- هل هناك من سيلوم ماركس لو...!؟


المزيد.....




- شاهد ما جعل رئيس كوريا الجنوبية يضحك بهذه الطريقة في مقابلة ...
- مادورو يلوّح بآلاف الصواريخ الروسية في وجه واشنطن.. ما حجم ت ...
- الولايات المتحدة والاتحاد الأوروبي يشددان العقوبات على روسيا ...
- حقيقة ظهور زرافة في نهر النيل بالقاهرة وإنقاذها بمروحية
- قانون التربية الجنسية يضع قيم فرنسا على المحك
- الهلال الأحمر القطري يطلق مشروعا لتوفير خدمات غسيل الكلى الط ...
- الاتحاد الأوروبي يقر الحزمة الـ19 من العقوبات ضد روسيا
- اختطاف مبشّر أميركي في النيجر واقتياده إلى جهة مجهولة
- تيك توك يتحول إلى واحدة من أسرع وكالات الأنباء في العالم
- شاهد: طائرة مقاتلة يتحكم فيها الذكاء الاصطناعي


المزيد.....

- الصورة النمطية لخصائص العنف في الشخصية العراقية: دراسة تتبعي ... / فارس كمال نظمي
- الآثار العامة للبطالة / حيدر جواد السهلاني
- سور القرآن الكريم تحليل سوسيولوجي / محمود محمد رياض عبدالعال
- -تحولات ظاهرة التضامن الاجتماعي بالمجتمع القروي: التويزة نمو ... / ياسين احمادون وفاطمة البكاري
- المتعقرط - أربعون يوماً من الخلوة / حسنين آل دايخ
- حوار مع صديقي الشات (ج ب ت) / أحمد التاوتي
- قتل الأب عند دوستويفسكي / محمود الصباغ
- العلاقة التاريخية والمفاهيمية لترابط وتعاضد عالم الفيزياء وا ... / محمد احمد الغريب عبدربه
- تداولية المسؤولية الأخلاقية / زهير الخويلدي
- كتاب رينيه ديكارت، خطاب حول المنهج / زهير الخويلدي


المزيد.....


الصفحة الرئيسية - الفلسفة ,علم النفس , وعلم الاجتماع - طلال الربيعي - التحليل النفسي والذكاء الاصطناعي 105