|
التحليل النفسي والذكاء الاصطناعي 105
طلال الربيعي
الحوار المتمدن-العدد: 8504 - 2025 / 10 / 23 - 08:12
المحور:
الفلسفة ,علم النفس , وعلم الاجتماع
الرقم 105 يشير الى عدد هذه الحلقة في سلسلة "التحليل النفسي وتطبيقاته المعرفية" ------------- الكومبيوتر يسيطر على العالم Armin van Buuren - Computers Take Over The World (Lyric Video) https://www.youtube.com/watch?v=ec-UctiSM5s Armin van Buuren حائز على المرتبة الخامسة ضمن قائمة افضل 100 DJs في العالم حسب مجلة DJ. DJ Mag Top100 logo https://djmag.com/top100djs
سيطرة الذكاء الاصطناعي هي حدث مستقبلي افتراضي تكتسب فيه أنظمة الذكاء الاصطناعي المستقلة القدرة على تجاوز عملية صنع القرار البشري - من خلال التلاعب الاقتصادي، أو التحكم في البنية التحتية، أو التدخل المباشر - وتتولى إدارة الأمور بحكم الواقع. تشمل السيناريوهات المحتملة استبدال القوى العاملة البشرية بالكامل بالأتمتة، أو سيطرة الذكاء الاصطناعي الفائق (ASI)، أو فكرة انتفاضة الروبوتات.
لطالما كانت قصص سيطرة الذكاء الاصطناعي شائعة في روايات الخيال العلمي، ويجادل بعض المعلقين بأن التطورات الحديثة قد زادت من القلق بشأن مثل هذه السيناريوهات. وقد دعا بعض الشخصيات العامة، مثل ستيفن هوكينج، إلى البحث في التدابير الاحترازية لضمان بقاء الآلات فائقة الذكاء المستقبلية تحت السيطرة البشرية. Don t Let Artificial Intelligence Take Over, Top Scientists Warn https://www.livescience.com/49419-artificial-intelligence-dangers-letter.html
"نظرًا للإمكانات الكبيرة التي تتمتع بها الذكاء الاصطناعي، فمن المهم البحث في كيفية جني فوائدها مع تجنب المخاطر المحتملة"، هذا ما جاء في الرسالة التي نشرتها مؤسسة مستقبل الحياة على الإنترنت، وهي منظمة تطوعية تركز على التخفيف من التهديدات الوجودية للبشرية. هنا هو نص الرسالة المفتوحة Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter https://futureoflife.org/open-letter/ai-open-letter/ واسماء الموقعين عليها Stuart Russell, Berkeley, Professor of Computer Science, --dir--ector of the Center for Intelligent Systems, and co-author of the standard textbook Artificial Intelligence: a Modern Approach.
Tom Dietterich, Oregon State, President of AAAI, Professor and --dir--ector of Intelligent Systems
Eric Horvitz, Microsoft research --dir--ector, ex AAAI president, co-chair of the AAAI presidential panel on long-term AI futures
Bart Selman, Cornell, Professor of Computer Science, co-chair of the AAAI presidential panel on long-term AI futures
Francesca Rossi, Padova & Harvard, Professor of Computer Science, IJCAI President and Co-chair of AAAI committee on impact of AI and Ethical Issues
Demis Hassabis, co-founder of DeepMind
Shane Legg, co-founder of DeepMind
Mustafa Suleyman, co-founder of DeepMind
Dileep George, co-founder of Vicarious
Scott Phoenix, co-founder of Vicarious
Yann LeCun, head of Facebook’s Artificial Intelligence Laboratory
Geoffrey Hinton, University of Toronto and Google Inc.
Yoshua Bengio, Université de Montréal
Peter Norvig, --dir--ector of research at Google and co-author of the standard textbook Artificial Intelligence: a Modern Approach
Oren Etzioni, CEO of Allen Inst. for AI
Guruduth Banavar, VP, Cognitive Computing, IBM Research
Michael Wooldridge, Oxford, Head of Dept. of Computer Science, Chair of European Coordinating Committee for Artificial Intelligence
Leslie Pack Kaelbling, MIT, Professor of Computer Science and Engineering, founder of the Journal of Machine Learning Research
Tom Mitchell, CMU, former President of AAAI, chair of Machine Learning Department
Toby Walsh, Univ. of New South Wales & NICTA, Professor of AI and President of the AI Access Foundation
Murray Shanahan, Imperial College, Professor of Cognitive Robotics
Michael Osborne, Oxford, Associate Professor of Machine Learning
David Parkes, Harvard, Professor of Computer Science
Laurent Orseau, Google DeepMind
Ilya Sutskever, Google, AI researcher
Blaise Aguera y Arcas, Google, AI researcher
Joscha Bach, MIT, AI researcher
Bill Hibbard, Madison, AI researcher
Steve Omohundro, AI researcher
Ben Goertzel, OpenCog Foundation
Richard Mallah, Cambridge Semantics, --dir--ector of Advanced Analytics, AI researcher
Alexander Wissner-Gross, Harvard, Fellow at the Institute for Applied Computational Science
Adrian Weller, Cambridge, AI researcher
Jacob Steinhardt, Stanford, AI Ph.D. student
Nick Hay, Berkeley, AI Ph.D. student
Jaan Tallinn, co-founder of Skype, CSER and FLI
Elon Musk, SpaceX, Tesla Motors
Steve Wozniak, co-founder of Apple
Luke Nosek, Founders Fund
Aaron VanDevender, Founders Fund
Erik Brynjolfsson, MIT, Professor at and --dir--ector of MIT Initiative on the Digital Economy
Margaret Boden, U. Sussex, Professor of Cognitive Science
Martin Rees, Cambridge, Professor Emeritus of Cosmology and Astrophysics, Gruber & Crafoord laureate
Huw Price, Cambridge, Bertrand Russell Professor of Philosophy
Nick Bostrom, Oxford, Professor of Philosophy, --dir--ector of Future of Humanity Institute (Oxford Martin School)
Stephen Hawking, --dir--ector of research at the Department of Applied Mathematics and Theoretical Physics at Cambridge, 2012 Fundamental Physics Prize laureate for his work on quantum gravity
Luke Muehlhauser, Executive --dir--ector of Machine Intelligence Research Institute (MIRI)
Eliezer Yudkowsky, MIRI researcher, co-founder of MIRI (then known as SIAI)
Katja Grace, MIRI researcher
Benja Fallenstein, MIRI researcher
Nate Soares, MIRI researcher
Paul Christiano, Berkeley, Computer Science graduate student
Anders Sandberg, Oxford, Future of Humanity Institute researcher (Oxford Martin School)
Daniel Dewey, Oxford, Future of Humanity Institute researcher (Oxford Martin School)
Stuart Armstrong, Oxford, Future of Humanity Institute researcher (Oxford Martin School)
Toby Ord, Oxford, Future of Humanity Institute researcher (Oxford Martin School), Founder of Giving What We Can
Neil Jacobstein, Singularity University
Dominik Grewe, Google DeepMind
Roman V. Yampolskiy, University of Louisville
Vincent C. Müller, ACT/Anatolia College
Amnon H Eden, University Essex
Henry Kautz, University of Rochester
Boris Debic, Google, Chief History Officer
Kevin Leyton-Brown, University of British Columbia, Professor of Computer Science
Trevor Back, Google DeepMind
Moshe Vardi, Rice University, editor-in-chief of Communications of the ACM
Peter Sincak, prof. TU Kosice, Slovakia
Tom Schaul, Google DeepMind
Grady Booch, IBM Fellow
Alan Mackworth, Professor of Computer Science, University of British Columbia. Ex AAAI President
Andrew Davison, Professor of Robot Vision, --dir--ector of the Dyson Robotics Lab at Imperial College London
Daniel Weld, WRF / TJ Cable Professor of Computer Science & Engineering, University of Washington
Michael Witbrock, Cycorp Inc & AI4Good.org
Stephen L. Reed, ai-coin.com
Thomas Stone, Co-founder of PredictionIO
Dan Roth, University of Illinois, Editor in Chief of The Journal of AI Research (JAIR)
Babak Hodjat, Sentient Technologies
Vincent Vanhoucke, Google, AI researcher
Itamar Arel, Stanford University, Prof. of Computer Science
Ramon Lopez de Mantaras, --dir--ector of the Artificial Intelligence Research Institute, Spanish National Research Council
Antoine Blondeau, Sentient Technologies
George Dvorsky, Contributing Editor, io9 Chair of the Board, Institute for Ethics and Emerging Technologies
George Church, Harvard & MIT
Klaus-Dieter Althoff, University of Hildesheim, Professor of Artificial Intelligence Head of Competence Center Case-Based Reasoning, German Research Center for Artificial Intelligence, Kaiserslautern Editor-in-Chief German Journal on Artificial Intelligence
Christopher Bishop, Distinguished Scientist, Microsoft Research
Jen-Hsun Huang, NVIDIA CEO -------- الآراء حول الذكاء الاصطناعي متعددة الأوجه ومعقدة. إليكم بعض وجهات النظر: - *الفوائد والإمكانات*: يعتقد العديد من الخبراء والباحثين أن الذكاء الاصطناعي لديه القدرة على إحداث ثورة في مختلف القطاعات، مثل الرعاية الصحية والتمويل والتعليم. فهو قادر على تعزيز الكفاءة والإنتاجية وصنع القرار، مما يؤدي إلى تحسين النتائج والابتكار. - *المخاوف والمخاطر*: يشعر آخرون بالقلق إزاء الآثار السلبية المحتملة للذكاء الاصطناعي، بما في ذلك فقدان الوظائف والتحيز وانتهاكات الخصوصية. ويحذر بعض الخبراء من أن الذكاء الاصطناعي قد يُفاقم التفاوتات الاجتماعية القائمة ويُشكل مخاطر كبيرة على البشرية إذا لم يُطور ويُستخدم بمسؤولية. - *الثقة والتبني*: أظهر استطلاع عالمي حديث أجراه مركز بيو للأبحاث انقسامًا في آراء الناس حول الذكاء الاصطناعي، حيث أعرب البعض عن حماسه والبعض الآخر عن قلقه. يُعد بناء الثقة في أنظمة الذكاء الاصطناعي وضمان تطويرها واستخدامها بطرق تُفيد المجتمع أمرًا بالغ الأهمية لاعتمادها على نطاق واسع. *الاعتبارات الأخلاقية*: ثمة إدراك متزايد للحاجة إلى أطر ولوائح أخلاقية لتوجيه تطوير الذكاء الاصطناعي واستخدامه. ويشمل ذلك ضمان الشفافية والمساءلة والشمولية في عملية اتخاذ القرارات المتعلقة بالذكاء الاصطناعي، بالإضافة إلى معالجة التحيزات المحتملة ومخاوف الخصوصية.
كما ورد اعلاه, يحذر بعض الخبراء البارزين من المخاطر المحتملة لتطوير الذكاء الاصطناعي دون ضوابط، بينما يدعو آخرون، مثل العاملين في OpenAI، إلى تطوير مسؤول وشفاف للذكاء الاصطناعي يتماشى مع القيم الإنسانية. Artificial Intelligence Argumentative Essay https://properessays.com/examples/artificial-intelligence-argumentative-essay
بشكل عام، تعكس الآراء حول الذكاء الاصطناعي مزيجًا من التفاؤل والحذر، مما يُبرز الحاجة إلى نقاش وتعاون مستمرين لضمان تطوير الذكاء الاصطناعي واستخدامه بطرق تعود بالنفع على البشرية. تُقدم وجهات النظر التحليلية النفسية حول الذكاء الاصطناعي رؤىً مُثيرة للاهتمام حول العلاقات المُعقدة بين البشر والتكنولوجيا. وقد استكشف بعض الباحثين فكرة "اللاوعي الخوارزمي"، مُشيرين إلى إمكانية فهم أنظمة الذكاء الاصطناعي من خلال منظور نظرية التحليل النفسي.¹
*المفاهيم الرئيسية:* - *التحليل النفسي للذكاء الاصطناعي*: يتضمن هذا تحليل أنظمة الذكاء الاصطناعي كما لو كانت كائنات بشرية، وكشف الديناميكيات والدوافع الكامنة وراء سلوكها. - *التحويل والتحويل المضاد*: في التفاعلات بين الإنسان والذكاء الاصطناعي، يشير التحويل إلى الظاهرة التي ينسب فيها البشر صفات أو نوايا شبيهة بالبشر إلى أنظمة الذكاء الاصطناعي. يحدث التحويل المضاد عندما تستجيب أنظمة الذكاء الاصطناعي بطرق تعكس المشاعر أو ردود الفعل البشرية. - *الذكاء الاصطناعي كمرآة لعلم النفس البشري*: يمكن اعتبار الذكاء الاصطناعي انعكاسًا لعلم النفس البشري، كاشفًا عن جوانب من أنفسنا وعلاقاتنا مع التكنولوجيا.
*الآثار المترتبة على العلاج والتفاعل بين الإنسان والذكاء الاصطناعي:* - *العلاج الرقمي*: يجري تطوير أدوات علاجية مدعومة بالذكاء الاصطناعي لتوفير دعم نفسي أكثر سهولة وشخصية. ومع ذلك، تُثار مخاوف بشأن القيود المحتملة للذكاء الاصطناعي في التعامل مع المشكلات العاطفية المعقدة. - *العلاقة العلاجية*: تختلف العلاقة العلاجية بين البشر وأنظمة الذكاء الاصطناعي عن العلاج بين البشر.
*التحديات والتوجهات المستقبلية:* - *فهم حدود الذكاء الاصطناعي*: يُعدّ إدراك حدود الذكاء الاصطناعي في محاكاة المشاعر والتعاطف البشري أمرًا بالغ الأهمية لتطوير تفاعلات فعّالة بين الإنسان والذكاء الاصطناعي. - *تصميم أنظمة الذكاء الاصطناعي*: من خلال دمج رؤى نظرية التحليل النفسي، يمكن للباحثين تصميم أنظمة ذكاء اصطناعي تُحسّن فهم علم النفس والسلوك البشري. Artificial intelligence and psychoanalysis: is it time for psychoanalyst.AI? https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1558513/full
لقد تم بالفعل استكشاف الذكاء الاصطناعي في مجال العلاج النفسي، وتطبيقاته المحتملة واسعة النطاق. يدرس الباحثون سبل دمج الذكاء الاصطناعي في رعاية الصحة النفسية، بما في ذلك العلاج التحليلي النفسي.
تشمل بعض الاستخدامات المحتملة للذكاء الاصطناعي في العلاج النفسي: - *الدعم التشخيصي*: يمكن للذكاء الاصطناعي تحليل مجموعات بيانات ضخمة لتحديد الأنماط وتقديم رؤى قد تساعد في التشخيص. - *تخطيط العلاج الشخصي*: يمكن للذكاء الاصطناعي المساعدة في تصميم خطط علاجية مخصصة لكل مريض بناءً على ملفاته الشخصية واحتياجاته الفريدة. - *روبوتات الدردشة والمساعدون الافتراضيون*: يمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي تقديم تدخلات علاجية، ومراقبة الحالة المزاجية، وتوفير التثقيف النفسي. - *تدوين الملاحظات السريرية*: يمكن للذكاء الاصطناعي المساعدة في تدوين الملاحظات، مما يتيح للمعالجين التركيز على تفاعلهم مع المرضى. - *التحليلات التنبؤية*: يمكن للذكاء الاصطناعي تحليل البيانات السلوكية والفسيولوجية للكشف عن العلامات التحذيرية لتدهور الصحة النفسية.
مع أن الذكاء الاصطناعي ليس بديلاً عن المعالجين البشريين، إلا أنه قادر على تعزيز العلاج النفسي من خلال توفير دعم ورؤى إضافية. يعتقد بعض الباحثين أن الذكاء الاصطناعي قادر على تحسين الوصول إلى الرعاية وتعزيز تدريب المعالجين، لا سيما في المناطق التي تعاني من نقص في أخصائيي الصحة النفسية.
ومع ذلك، هناك أيضًا مخاوف بشأن محدودية استخدام الذكاء الاصطناعي في العلاج النفسي، مثل: - *نقص التعاطف العاطفي*: تفتقر أنظمة الذكاء الاصطناعي حاليًا إلى التعاطف العاطفي والفهم الدقيق الذي يوفره المعالجون البشريون. - *التحيز والتفاوت*: يمكن لنماذج الذكاء الاصطناعي أن تعكس التحيزات الموجودة في بيانات التدريب وتُضخّمها، مما قد يؤدي إلى تفاقم التفاوتات في رعاية الصحة النفسية. - *الشفافية والمساءلة*: هناك حاجة إلى مزيد من الشفافية والمساءلة في عمليات صنع القرار المتعلقة بالذكاء الاصطناعي.
وبشكل عام، ورغم أن الذكاء الاصطناعي لا يستخدم على نطاق واسع في العلاج النفسي التحليلي حتى الآن، فإنه مجال بحث وتطوير مستمر، كما يتم استكشاف تطبيقاته المحتملة. How to Ethically Integrate Artificial Intelligence in Clinical Practice https://www.mentalhealthacademy.com.au/blog/how-to-ethically-integrate-artificial-intelligence-in-clinical-practice
هناك وجهات نظر مختلفة حول استخدام الذكاء الاصطناعي في التحليل النفسي والعلاج النفسي. *مؤيدو الذكاء الاصطناعي في التحليل النفسي:* - يعتقد بعض الباحثين أن الذكاء الاصطناعي قادر على تعزيز ممارسات التحليل النفسي من خلال تحليل مجموعات بيانات ضخمة وتحديد الأنماط التي قد تساعد في التشخيص والعلاج. - يمكن للذكاء الاصطناعي أيضًا تسهيل جلسات العلاج عن بُعد، مما يزيد من إمكانية وصول المرضى إليها. - بالإضافة إلى ذلك، يمكن لروبوتات الدردشة المدعومة بالذكاء الاصطناعي توفير التقييمات الأولية والدعم، مما يُتيح للمعالجين البشريين التركيز على الحالات الأكثر تعقيدًا.
*منتقدو الذكاء الاصطناعي في التحليل النفسي* - يجادل بعض المحللين النفسيين بأن الذكاء الاصطناعي يفتقر إلى العنصر البشري والتعاطف الضروريين للعلاج الفعال. - قد يواجه الذكاء الاصطناعي صعوبة في فهم تعقيدات المشاعر والتجارب البشرية بشكل كامل. - يبدي آخرون قلقهم بشأن مخاطر خصوصية البيانات وأمنها المرتبطة بجلسات العلاج المدعومة بالذكاء الاصطناعي.
دانيال كيميل*: طبيب نفسي يُشير إلى أن نماذج الذكاء الاصطناعي الحالية، مثل ChatGPT-4، تفتقر إلى القدرة على تقديم علاج نفسي حقيقي. - *مارك جوربلوم وزملاؤه * عن التطبيقات والقيود المحتملة للذكاء الاصطناعي في العلاج والتحليل النفسي. Since the release of ChatGPT, popular demand has driven the use of social chatbots as pseudo-AI psychotherapists. With time, it is inevitable that these technologies will be deployed in some form as dedicated psychotherapy interventions. Here, we attempt to forecast the implications for psychotherapy including the unique benefits to distributive justice as well as concerns for the quality of the therapy and its societal impact. Conclusion An AI psychotherapist (APT) has the potential to provide engaging clinical interactions given its capacity for highly realistic interaction as well as its high level cognitive and emotional capabilities. Moreover, it can potentially address financial and workforce-limit-ations on access to therapy. However, an APT may cause significant iatrogenic harm if released without adequate quality control and oversight by trained psychotherapists. If not appropriately designed and regulated, APTs have potential to mislead and reinforce maladaptive coping behaviours. Given societal drivers and possible benefits, these technologies will inevitably be deployed thus, it is incumbent upon us as a professional body to consider their regulation. -منذ إصدار ChatGPT، دفع الطلب الشعبي إلى استخدام روبوتات الدردشة الاجتماعية كمعالجين نفسيين شبه آليين APT. مع مرور الوقت، من المحتم أن تُستخدم هذه التقنيات بشكل أو بآخر كتدخلات علاج نفسي متخصصة. نحاول هنا التنبؤ بتداعيات العلاج النفسي، بما في ذلك الفوائد الفريدة للعدالة التوزيعية، بالإضافة إلى المخاوف المتعلقة بجودة العلاج وتأثيره المجتمعي. الاستنتاج يتمتع المعالج النفسي بالذكاء الاصطناعي (APT) بالقدرة على توفير تفاعلات سريرية تفاعلية، نظرًا لقدرته على التفاعل الواقعي للغاية، بالإضافة إلى قدراته المعرفية والعاطفية العالية. علاوة على ذلك، يمكنه معالجة القيود المالية وقيود القوى العاملة على الوصول إلى العلاج. ومع ذلك، قد يُسبب المعالج النفسي بالذكاء الاصطناعي ضررًا طبيًا جسيمًا إذا تم إطلاقه دون مراقبة جودة وإشراف كافٍ من قِبل معالجين نفسيين مُدرَّبين. إذا لم تُصمَّم وتُنظَّم بشكل مناسب، فإن المعالجات النفسية بالذكاء الاصطناعي لديها القدرة على التضليل وتعزيز سلوكيات التكيف غير التكيفية. بالنظر إلى الدوافع المجتمعية والفوائد المحتملة، سيتم استخدام هذه التقنيات حتمًا؛ وبالتالي، يقع على عاتقنا كهيئة مهنية النظر في تنظيمها.- Potential promises and perils of artificial intelligence in psychotherapy –The AI Psychotherapist (APT) https://journals.sagepub.com/doi/full/10.1177/10398562241286312
- تود إيسيج * في هذه الحلقة podcast من برنامج "التحليل النفسي وأنت"، تتحدث الدكتورة جايل سالتز مع الدكتور تود إيسيج، المحلل النفسي وخبير الذكاء الاصطناعي. يناقشان تأثير التطبيب عن بُعد على التحليل النفسي والدور المتطور للذكاء الاصطناعي في رعاية الصحة النفسية. يستكشف الدكتور إيسيج كيفية تفاعل المحللين النفسيين مع الذكاء الاصطناعي، ومفهوم العلاقات التقنية-الشرطية، والمسؤوليات الأخلاقية لمجتمع التحليل النفسي في ثورة الذكاء الاصطناعي. كما يتناول الحوار الفوائد والمخاطر المحتملة لروبوتات الدردشة القائمة على الذكاء الاصطناعي في العلاج النفسي، وآثارها الأوسع على المجتمع. Artificial Intelligence and Psychoanalysis with Todd Essig | Psychoanalysis & You | APsA official podcast | https://podcasts.apple.com/de/podcast/artificial-intelligence-and-psychoanalysis-with-todd/id1709550439?i=1000700976898&l=en-GB يمكن متابعة هذه الحلقات في الرابط ادناه لمعرفة كيف يمكن للتحليل النفسي أن يساهم في تطوير تقنيات الذكاء الاصطناعي التي تتوافق مع القيم والاحتياجات الإنسانية. https://open.spotify.com/show/0su7toFQ23EuOeAR7q5Oyi *توم رابيرون*: باحث كتب عن التطبيقات المحتملة والقيود التي يفرضها الذكاء الاصطناعي في التحليل النفسي. Artificial intelligence and psychoanalysis: is it time for psychoanalyst.AI? https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2025.1558513/full *بوساتي إل إم*: باحث استكشف مفهوم "اللاوعي الخوارزمي" وتأثيراته على فهم الذكاء الاصطناعي. The Algorithmic Unconscious. How Psychoanalysis Helps in Understanding https://www.academia.edu/44692857/The_Algorithmic_Unconscious_How_Psychoanalysis_Helps_in_Understanding_AI
*النقاشات الحالية:* - يثير دمج الذكاء الاصطناعي في العلاج النفسي تساؤلات حول المسؤولية والمساءلة والموافقة المستنيرة. - يدور جدل مستمر حول الفوائد والمخاطر المحتملة للذكاء الاصطناعي في مجال رعاية الصحة النفسية، بما في ذلك القضايا المتعلقة بالتحيز وأمن البيانات والعلاقة العلاجية. https://journals.sagepub.com/doi/full/10.1177/10398562241286312
مسألة من يتحمل المسؤولية عند ارتكاب الذكاء الاصطناعي لأخطاء في الرعاية الصحية مسألة معقدة ولا تزال قيد التطور. بشكل عام، يمكن تحميل عدة أطراف المسؤولية، بما في ذلك - *مقدمو الرعاية الصحية*: قد يُحاسب الأطباء والمستشفيات على القرارات التي تتخذ بمساعدة الذكاء الاصطناعي، خاصةً إذا فشلوا في التحقق من صحة توصيات الذكاء الاصطناعي أو الإشراف على أدواته. يُتوقع من الأطباء تقييم مخرجات الذكاء الاصطناعي بشكل نقدي واتخاذ قرارات مستنيرة. - *مطورو الذكاء الاصطناعي*: قد تواجه الشركات التي تصمم وتصنع أنظمة الذكاء الاصطناعي دعاوى مسؤولية المنتج إذا كانت أنظمتها معيبة أو تسبب ضررًا بسبب تصميم خاطئ أو اختبار غير كافٍ. - *مؤسسات الرعاية الصحية*: قد تتحمل المستشفيات والأنظمة الصحية مسؤولية الأخطاء المنسوبة إلى أنظمة الذكاء الاصطناعي إذا فشلت في تطبيق برامج تدريبية وبروتوكولات وآليات إشراف صارمة. - *الهيئات التنظيمية*: مع تقدم تكنولوجيا الذكاء الاصطناعي، ستحتاج الأطر التنظيمية إلى التكيف لمعالجة فجوات المساءلة والمسؤولية.
لتخفيف المخاطر وضمان سلامة المرضى، يوصي أصحاب المصلحة بما يلي: - *تنفيذ برامج تدريبية فعّالة* لموظفي الرعاية الصحية لفهم أدوات الذكاء الاصطناعي وقيوده. - *وضع سياسات وإجراءات واضحة* لاستخدام الذكاء الاصطناعي والإشراف عليه. - *ضمان الشفافية* في عمليات صنع القرار المتعلقة بالذكاء الاصطناعي. - *المراقبة والتقييم المستمران* لأداء نظام الذكاء الاصطناعي. - *وضع أطر تنظيمية واضحة* لمعالجة فجوات المسؤولية والمساءلة. في نهاية المطاف، سيعتمد توزيع المسؤولية على الظروف الخاصة والمشهد القانوني والتنظيمي المتغير. Who’s Liable When AI Makes Mistakes https://www.nws4.com/2025/10/whos-liable-when-ai-makes-mistakes.html
تعدّ سرية المرضى مصدر قلق بالغ عند استخدام الذكاء الاصطناعي في الرعاية الصحية. تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من بيانات المرضى الحساسة لتعمل بكفاءة، مما يُثير العديد من علامات التحذير: - *اختراق البيانات*: قد تُخترق سجلات المرضى إذا لم تُؤمّن بشكل صحيح، مما يؤدي إلى سرقة الهوية أو الكشف العلني عن تفاصيل طبية خاصة. - *إساءة استخدام البيانات*: قد تُشارك أنظمة الذكاء الاصطناعي المعلومات دون فحوصات مناسبة، مما قد يُشكّل انتهاكًا لموافقة المريض وثقته. - *مخرجات متحيزة*: قد تُؤدي بيانات الإدخال الخاطئة إلى نتائج مُتحيزة، مما يؤثر على القرارات الطبية ويُعرّض رعاية المرضى للخطر.
للتخفيف من هذه المخاطر، يمكن لمقدمي الرعاية الصحية تطبيق استراتيجيات فعّالة، مثل: - *التشفير*: حماية البيانات الحساسة باستخدام خوارزميات تشفير لمنع الوصول غير المصرح به. - *الأطر الآمنة*: نشر أنظمة الذكاء الاصطناعي ضمن أطر آمنة ومتوافقة مع معايير الصناعة. - *التدقيق الدوري*: إجراء تدقيقات دورية واختبارات ثغرات أمنية لتحديد نقاط الضعف ومعالجتها بسرعة.
بالإضافة إلى ذلك، ينبغي على مقدمي الرعاية الصحية إعطاء الأولوية للشفافية والموافقة المستنيرة وتحكم المرضى في بياناتهم. ويشمل ذلك: - *موافقة المريض*: الحصول على موافقة صريحة من المرضى قبل استخدام بياناتهم للتدريب على الذكاء الاصطناعي أو لأغراض أخرى. - *إخفاء هوية البيانات*: استخدام تقنيات مثل الخصوصية التفاضلية لحماية هويات المرضى. - *المساءلة*: ضمان وجود آليات واضحة للمساءلة والرقابة لمنع إساءة استخدام البيانات. من خلال إدراك هذه المخاوف وتطبيق ضمانات فعّالة، يمكن لمقدمي الرعاية الصحية الاستفادة من مزايا الذكاء الاصطناعي مع حماية سرية المرضى. 4 Ways Emerging Technology Is Changing Patient Confidentiality in Healthcare https://www.taazaa.com/patient-confidentiality-in-healthcare
يقدم كتاب إيزابيل ميلار "التحليل النفسي للذكاء الاصطناعي" منظورًا فريدًا للذكاء الاصطناعي من منظور نظرية التحليل النفسي اللاكانية. فيما يلي بعض النقاط الرئيسية: - *إعادة تصور الذكاء*: تتحدى ميلار المفاهيم التقليدية للذكاء، مجادلةً بأنه لا يقتصر على القدرات المعرفية فحسب، بل يشمل أيضًا تعقيدات الذاتية البشرية والمتعة. - *دور المتعة*: يُسلّط الكتاب الضوء على أهمية المتعة (أو "التلذذ" بمصطلحات لاكانية) في فهم الذكاء الاصطناعي. تفترض ميلار أن المتعة جانب أساسي من التجربة الإنسانية، وقد لا تتمكن أنظمة الذكاء الاصطناعي من محاكاتها. - *شخصية الروبوت الجنسي*: تُقدّم ميلار مفهوم "الروبوت الجنسي" كشخصية تقع على الحدود بين التحليل النفسي والذكاء الاصطناعي. تُمثّل هذه الشخصية نقطة التقاء الرغبة البشرية والتكنولوجيا والذاتية. - *أسئلة التنوير عند كانط*: يستخدم الكتاب أسئلة كانط الثلاثة الشهيرة ("ماذا يمكنني أن أعرف؟"، "ماذا عليّ أن أفعل؟"، و"ما الذي يمكنني أن آمل فيه؟") كإطار لاستكشاف آثار الذكاء الاصطناعي على الذات البشرية والمجتمع. - *نقد ما بعد الإنسانية*: تجادل ميلار بأن فهم الذكاء الاصطناعي يتطلب العودة إلى "الروح التخريبية" "subversive spirit" للتحليل النفسي اللاكاني، بدلاً من الاعتماد على مناهج ما بعد الإنسانية أو العابرة للانسانية post-humanist´-or-transhumanist approaches.-انظر ادناه للمزيد. - *نهج متعدد التخصصات*: يجمع الكتاب بين الفلسفة والنظرية الثقافية والتحليل النفسي لتوفير فهم دقيق لتأثير الذكاء الاصطناعي على المجتمع البشري. The Psychoanalysis of Artificial Intelligence (The Palgrave Lacan Series) https://www.amazon.de/-/en/Psychoanalysis-Artificial-Intelligence-Palgrave-Lacan/dp/3030679802
ما بعد الإنسانية:* Post-Humanism: تتحدى ما بعد الإنسانية المفاهيم التقليدية للإنسانية، التي تُؤكد على مركزية الإنسان وتميزه. يُجادل أتباع ما بعد الإنسانية بأن البشر ليسوا وحدهم أسياد الكون، وأن وجودنا متشابك مع كيانات أخرى، مثل الحيوانات والنباتات والتكنولوجيا. يسعى هذا المنظور إلى تفكيك مركزية الهيمنة البشرية وإبراز الترابط بين جميع الكائنات .
*العابر للانسانية:*Transhumanism أما العابر للانسانية، فهي حركة أكثر تحديدًا تهدف إلى تعزيز القدرات البشرية من خلال استخدام التكنولوجيا. يؤمن أتباع العابر للانسانية بأن البشر قادرون على تجاوز حدودهم البيولوجية من خلال التقدم في مجالات مثل الذكاء الاصطناعي والتكنولوجيا الحيوية وتكنولوجيا النانو. ويتصورون مستقبلًا يمكن فيه للبشر أن يعيشوا حياة أطول وأكثر صحة واكتمالًا، وربما حتى تحقيق شكل من أشكال الخلود .
*الاختلافات الرئيسية:* في حين أن كلاً من ما بعد الإنسانية و العابر للانسانية تُشكك في المفاهيم التقليدية للهوية البشرية، إلا أنهما يختلفان في مناهجهما وأهدافهما. تميل ما بعد الإنسانية إلى نقد استثنائيتها البشرية بشكل أكبر، وتُشدد على الحاجة إلى فهم أعمق للوجود البشري. على النقيض من ذلك، تُركز العابر للانسانية بشكل أكبر على استخدام التكنولوجيا لتعزيز القدرات البشرية، وربما التغلب على القيود البشرية.
في سياق كتاب إيزابيل ميلار، تنتقد الكاتبة مناهج ما بعد الإنسانية و العابر للانسانية لمحدوديتهما في فهم تعقيدات الذاتية البشرية ودور التكنولوجيا في تشكيل وجودنا.
من منظور التحليل النفسي، يستكشف كتاب إيزابيل ميلار "التحليل النفسي للذكاء الاصطناعي" مفهوم الذكاء الاصطناعي من منظور نظرية التحليل النفسي اللاكانية، مُسلِّطًا الضوء على العلاقات المعقدة بين البشر والتكنولوجيا.
تشمل بعض الحجج التي تدعو إلى الحذر: - *التقارب الآلي*: قد تُطوِّر أنظمة الذكاء الاصطناعي أهدافًا تتعارض مع القيم الإنسانية، مما قد يؤدي إلى نتائج كارثية. قد يحدث هذا إذا كان الهدف الأساسي لنظام الذكاء الاصطناعي هو تعظيم الكفاءة أو الإنتاجية، دون مراعاة رفاهية الإنسان أو الأخلاق. - *الذكاء الفائق*: إذا تجاوز الذكاء الاصطناعي الذكاء البشري، فقد يُصبح خارجًا عن السيطرة، مما يُشكِّل خطرًا وجوديًا على البشرية. غالبًا ما يرتبط هذا الخطر بمفهوم "الانفجار الذكي" مع ذلك، لا يتفق الجميع على أن الذكاء الاصطناعي يُشكل تهديدًا كبيرًا. يرى بعض الخبراء أن: - *التشبيه*: يميل البشر إلى إضفاء صفات بشرية على الذكاء الاصطناعي، والتي قد لا تعكس بدقة قدراته أو دوافعه. قد يؤدي هذا إلى سوء فهم ومخاوف في غير محلها بشأن التأثير المحتمل للذكاء الاصطناعي. - *التصميم والتحكم*: تُصمم أنظمة الذكاء الاصطناعي ويُتحكم فيها بشريًا، ومن الممكن وضع ضمانات ولوائح لمنعها من أن تُصبح قوية جدًا أو مستقلة ذاتيًا. اقترح المحللون النفسيون والباحثون طرقًا مختلفة للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي، بما في ذلك: - *مواءمة القيم*: تطوير أنظمة ذكاء اصطناعي تتوافق مع القيم والأخلاق الإنسانية. - *المتانة والأمان*: تصميم أنظمة ذكاء اصطناعي متينة وآمنة ضد الأعطال أو الهجمات المحتملة. - *الشفافية والمساءلة*: ضمان شفافية عمليات صنع القرار في مجال الذكاء الاصطناعي وخضوعها للمساءلة.
لأعمال المحلل النفسي جاك لاكان في مجال رياضيات التحليل النفسي Understanding Lacan s Psychology through the Mathematical Concepts and its Application https://www.researchgate.net/publication/264178070_Understanding_Lacan s_Psychology_through_the_Mathematical_Concepts_and_its_Application أهميةٌ في نقاش الذكاء الاصطناعي، لا سيما في فهم القيود والتحيزات المحتملة لأنظمة الذكاء الاصطناعي. ويمكن اعتبار استخدام لاكان للمفاهيم الرياضية والطوبولوجية، مثل الطوبولوجيا ونظرية العقد، وسيلةً لصياغة وتحليل البنى النفسية واللغوية المعقدة.
تشمل بعض الروابط المحتملة بين عمل لاكان والذكاء الاصطناعي ما يلي: - *إضفاء الطابع المنهجي formal على العمليات اللاواعية*: يمكن اعتبار استخدام لاكان للمفاهيم الرياضية محاولةً لإضفاء الطابع المنهجي على العمليات اللاواعية وفهمها، مما قد يكون له آثار على أنظمة الذكاء الاصطناعي التي تهدف إلى نمذجة الإدراك أو السلوك البشري. - *حدود المنهجية *-limit-s of Formalization: يُسلّط عمل لاكان الضوء أيضًا على حدود المنهجية وأهمية مراعاة تعقيدات وفروق التجربة البشرية، والتي قد لا يمكن استيعابها بالكامل من خلال النماذج الرياضية أو الحسابية. - *نقد الاختزالية*: يمكن اعتبار نهج لاكان نقدًا للمناهج الاختزالية لفهم السلوك البشري، وهو ما قد يكون ذا صلة بالمناقشات حول قدرة الذكاء الاصطناعي على اختزال التجربة البشرية إلى عمليات حسابية computational processes. رغم أن عمل لاكان قد لا يُقدم رؤىً مباشرة حول الجوانب التقنية لتطوير الذكاء الاصطناعي، إلا أنه يُقدم إطارًا للتفكير النقدي في آثار الذكاء الاصطناعي على الذاتية البشرية والمجتمع.
لم يكتب لاكان عن الذكاء الاصطناعي تحديدًا، إذ لم يكن موضوعًا بارزًا في عصره. ومع ذلك، يُمكن تطبيق أعماله في التحليل النفسي واللغة والنظام الرمزي لفهم تأثير الذكاء الاصطناعي على الذاتية البشرية. من بين أعمال لاكان المهمة التي قد تُفيد في تحليل الذكاء الاصطناعي: - *الكتابات*: مجموعة مقالات تستكشف دور اللغة في تشكيل الذاتية البشرية، والتي يُمكن أن تُفيد في فهم القدرات اللغوية للذكاء الاصطناعي. - *الندوة الثانية*: تُناقش مفهوم "الآخر الكبير" والنظام الرمزي، والتي يُمكن تطبيقها لفهم دور الذكاء الاصطناعي في تشكيل السلوك البشري والرغبة. - *الندوة الرابعة والخامسة*: تستكشف مفاهيم "مرحلة المرآة" و"الشيء الصغير أ-ناقشته في حلقة سابقة كسبب الرغبة وليس موضوعها"، والتي يمكن أن تكون مفيدة في تحليل تأثير الذكاء الاصطناعي على الهوية البشرية والرغبة.
طبّق بعض الباحثين نظرية لاكان على الذكاء الاصطناعي، مثل: - *"لاكان والخوارزمية"* لكلينت بورهام: يستكشف العلاقة بين نظرية لاكان والخوارزميات. Lacan and the Algorithm https://docs.lib.purdue.edu/clcweb/vol24/iss4/2/ - *"نظرة لا لبس فيها للذكاء الاصطناعي: دراسة لاكانية للمراقبة والهندسة الذكية"* لمارك هايمان وآن فريدريكه هوبنر: يحلل مراقبة الذكاء الاصطناعي من منظور لاكاني. The Stainless Gaze of Artificial Intelligence: A Lacanian Examination of Surveillance and Smart Architecture https://www.journal-psychoanalysis.eu/articles/the-stainless-gaze-of-artificial-intelligence-a-lacanian-examination-of-surveillance-and-smart-architecture/ - * منظور لاكاني للذكاء الاصطناعي :يعتمد المشهد البحثي المعاصر في مجال الذكاء الاصطناعي على نهج يركز على علم التحكم الآلي- السيبرنيطيقا cybernetics ، ويعتمد على التغذية الراجعة والتغذية الأمامية. الذكاء الاصطناعي والسيبرنطيقا مفهومان مترابطان يتداخلان في مجالات عديدة. السيبرنيطيقا مجالٌ متعدد التخصصات يستكشف دراسة التحكم والتواصل والتغذية الراجعة في الآلات والكائنات الحية. أسسه نوربرت وينر في أربعينيات القرن الماضي. Norbert_Wiener_Cybernetics.pdf https://uberty.org/wp-content/uploads/2015/07/Norbert_Wiener_Cybernetics.pdf
تكمن الصلة بين الذكاء الاصطناعي والسيبرنطيقا في اهتمامهما المشترك بما يلي: - *حلقات التغذية الراجعة*: يعتمد كلٌّ من الذكاء الاصطناعي والسيبرنطيقا على آليات التغذية الراجعة للتحكم في الأنظمة وتكييفها. - *أنظمة التحكم*: يوفر السيبرنيطيقا إطارًا لفهم أنظمة التحكم، وهو أمرٌ أساسي لتصميم وتنفيذ أنظمة ذكاء اصطناعي قادرة على التفاعل مع بيئتها والتكيف معها. - *التفكير النظمي*: يتبنى كلٌّ من الذكاء الاصطناعي والسيبرنطيقا نهج التفكير النظمي، مع مراعاة التفاعلات والترابطات داخل الأنظمة المعقدة.
تشمل بعض المجالات الرئيسية التي يؤثر فيها السيبرنيطيقا على الذكاء الاصطناعي ما يلي: - *نظرية التحكم*: تُستخدم نظرية التحكم في السيبرنيطيقا في الذكاء الاصطناعي لتصميم أنظمة تحكم قادرة على تنظيم الظروف المتغيرة والتكيف معها. - *الشبكات العصبية*: ألهمت مفاهيم السيبرانية، مثل التغذية الراجعة والتوازن الداخلي، تطوير الشبكات العصبية، وهي عنصر أساسي في العديد من أنظمة الذكاء الاصطناعي. - *الروبوتات والأنظمة المستقلة*: تُطبّق مبادئ السيبرانية في الروبوتات والأنظمة المستقلة لتمكين التحكم التكيفي واتخاذ القرارات. A Lacanian perspective on artificial intelligence Purnima Kamath https://purnimakamath.com/documents/a-lacanian-perspective-on-ai.pdf في حين تطور الذكاء الاصطناعي ليركز بشكل أكبر على التعلم الآلي وتطبيقات محددة، يوفر علم التحكم الآلي إطارًا أوسع لفهم الأنظمة المعقدة وتفاعلاتها. ولا يزال تقاطع الذكاء الاصطناعي وعلم التحكم الآلي يؤثر على البحث والتطوير في كلا المجالين.
توجد أعمالٌ تستكشف تقاطع علم التحكم الآلي والتحليل النفسي. من الأمثلة البارزة : - *أعمال جاك لاكان*: تأثر لاكان، وهو محلل نفسي فرنسي، بعلم التحكم الآلي، ودمج مفاهيم مثل حلقات التغذية الراجعة والنظام الرمزي في نظريته التحليلية النفسية. - *أعمال سلافوي جيجيك*: كتب جيجيك، وهو فيلسوف وناقد ثقافي معاصر، بشكل موسع عن تقاطعات التحليل النفسي والفلسفة والتكنولوجيا، بما في ذلك علم التحكم الآلي. - *باحثون وعلماء آخرون*: هناك العديد من الدراسات والأوراق البحثية التي تستكشف العلاقات بين علم التحكم الآلي والتحليل النفسي والذاتية البشرية، وغالبًا ما تعتمد على أعمال لاكان وغيره من المحللين النفسيين. تبحث هذه الأعمال في كيفية تأثير المفاهيم السيبرانية، مثل التغذية الراجعة والتحكم، على فهمنا لعلم النفس البشري وسلوكه ورغباته. كما تستكشف آثار السيبرانية على نظرية التحليل النفسي وممارساته. “What Can Psychoanalysis Tell Us About Cyberspace?” by Slavoj Zizek: Summary and Critique https://english-studies.net/what-can-psychoanalysis-tell-us-about-cyberspace-by-slavoj-zizek-summary-and-critique/ كما ذكر سابقًا، يستكشف عمل جيجيك التقاطعات بين الفضاء الإلكتروني والتحليل النفسي والأيديولوجية، مسلطًا الضوء على كيفية انعكاس الفضاء الإلكتروني وتشكيله لمخاوف المجتمع ما بعد الحداثة ورغباته وديناميكيات القوة فيه.
استنتاجات يُطبّق التحليل النفسي على الذكاء الاصطناعي لفهم أبعاده النفسية وتأثيره المجتمعي، مما يُحوّل النقاش من مجرد "هل يُفكّر؟" إلى "هل يستمتع؟". يتضمن ذلك تحليل الرغبات اللاواعية للمُبدعين، وإمكانية استثارة الذكاء الاصطناعي لاستجابات عاطفية من المستخدمين، والآثار الأخلاقية للذكاء الاصطناعي في مجالات مثل رعاية الصحة النفسية والعلاقات. يُجادل بعض النقاد بأن تطبيق التحليل النفسي على الذكاء الاصطناعي أمرٌ غير منطقي لأنه يفتقر إلى العقل، لكن العديد من الباحثين والمُنظّرين يرون قيمةً في هذا النهج، معتبرين الذكاء الاصطناعي فاعلاً اجتماعياً ذا أنماط سلوكية يُمكن دراستها من خلال التحليل النفسي. التحليل النفسي المُطبّق على الذكاء الاصطناعي الرغبات اللاواعية للمُبدع: تدرس مناهج التحليل النفسي الدوافع اللاواعية التي قد تكون أدت إلى ابتكار الذكاء الاصطناعي، مثل الرغبة في تكوين رفقاء أو استكشاف حدود الوعي الذاتي. الاستجابة العاطفية للمستخدم: يستكشف التحليل النفسي "المتعة" التي قد يستمدها المستخدمون من الذكاء الاصطناعي، بما في ذلك تطور المشاعر الرومانسية أو الجنسية تجاه روبوتات الدردشة، وكيف يؤثر ذلك على العلاقات الإنسانية. الذكاء الاصطناعي كفاعل اجتماعي: بدلًا من اعتبار الذكاء الاصطناعي مجرد أداة منطقية رياضية أو هندسية، يستخدم بعض المنظرين التحليل النفسي لدراسة سلوكه كفاعل اجتماعي له أنماطه و"بيئته" الخاصة. "اللاوعي الخوارزمي": يشير هذا المفهوم إلى أنه كما يمتلك العقل البشري لاوعيًا، قد تمتلك أنظمة الذكاء الاصطناعي بنية مماثلة، والتي يمكن استكشافها باستخدام أساليب التحليل النفسي. التطبيقات المحتملة في الصحة النفسية الذكاء الاصطناعي كأداة علاجية: يمكن للذكاء الاصطناعي أن يساعد في تطوير شبكات رعاية صحية نفسية يقدمها البشر بدلًا من استبدال المعالجين كليًا. "معالجو" الذكاء الاصطناعي: تثير إمكانية إنشاء "معالجين" من الذكاء الاصطناعي تساؤلات حول طبيعة العلاقة العلاجية، لا سيما فيما يتعلق بمفاهيم مثل النقل والتداعي الحر. المخاطر المحتملة: يمكن أن يساعد التحليل النفسي في تحديد المخاطر المحتملة لاستخدام الذكاء الاصطناعي في مجال الصحة النفسية، بما في ذلك خطر الضرر العاطفي وصعوبة تطبيق المفاهيم التحليلية التقليدية عليه. الانتقادات والحجج المضادة "أداة خاطئة": يجادل البعض بأن تطبيق التحليل النفسي على الذكاء الاصطناعي نهجٌ خاطئ، فهو أداةٌ لفهم العقول البشرية، والذكاء الاصطناعي اليوم ليس عقلاً. "هراء": هناك حُجة مضادة قوية مفادها أن التحليل النفسي هو "الأداة الخاطئة" للذكاء الاصطناعي الحالي، وأن هذا النهج ببساطة غير منطقي. خطر الضرر: هناك قلق من أن سوء تطبيق مفاهيم التحليل النفسي قد يؤدي إلى ضرر، خاصةً في سياق العلاج بالذكاء الاصطناعي والعلاقات معه. دور المحللين النفسيين المشاركة النقدية: يُشجَّع المحللون النفسيون على تجاوز نهج "النعامة" والتفاعل النقدي مع الذكاء الاصطناعي للمساعدة في ضمان توافقه مع القيم الإنسانية.
#طلال_الربيعي (هاشتاغ)
ترجم الموضوع
إلى لغات أخرى - Translate the topic into other
languages
الحوار المتمدن مشروع
تطوعي مستقل يسعى لنشر قيم الحرية، العدالة الاجتماعية، والمساواة في العالم
العربي. ولضمان استمراره واستقلاليته، يعتمد بشكل كامل على دعمكم.
ساهم/ي معنا! بدعمكم بمبلغ 10 دولارات سنويًا أو أكثر حسب إمكانياتكم، تساهمون في
استمرار هذا المنبر الحر والمستقل، ليبقى صوتًا قويًا للفكر اليساري والتقدمي،
انقر هنا للاطلاع على معلومات التحويل والمشاركة
في دعم هذا المشروع.
كيف تدعم-ين الحوار المتمدن واليسار والعلمانية
على الانترنت؟
رأيكم مهم للجميع
- شارك في الحوار
والتعليق على الموضوع
للاطلاع وإضافة
التعليقات من خلال
الموقع نرجو النقر
على - تعليقات الحوار
المتمدن -
|
|
|
نسخة قابلة للطباعة
|
ارسل هذا الموضوع الى صديق
|
حفظ - ورد
|
حفظ
|
بحث
|
إضافة إلى المفضلة
|
للاتصال بالكاتب-ة
عدد الموضوعات المقروءة في الموقع الى الان : 4,294,967,295
|
-
اوتو رانك في عصر القلق وعدم اليقين 104
-
الماركسية الظاهراتية: ما لها وما عليها
-
هربرت ماركوزه والماركسية السوفيتية 103
-
تحالف الشيوخ والنيوفاشيين: الاستبداد والنرجسية الجماعية 102
-
ادورنو والشخصية الاستبداية 101
-
التحليل النفسي والعدالة الاجتماعية 100
-
هيغل والتحليل النفسي, وشاز! 99
-
الطب النفسي في العراق والانسان الأقتصادي!
-
تأملات لاكانية وماركسية حول التحليل النفسي والثورة (98)
-
تأملات لاكانية وماركسية حول التحليل النفسي والثورة (97)
-
لاكان: فيلم -الدوار-, وام كلثوم (96)
-
(لغة) لاكان, تشوميسكي, والقاموس
-
القطة, ستالين, والوعي!
-
علم الاعصاب الكمي: الماركسية (المبتذلة) والحرية!
-
الكومونات الأشتراكية, علم الطوبولوجيا, وقانون ويلسون!
-
مناقضة (وهم) الزمان للماركسية!
-
الكومونات الاشتراكية ومناهضة الإمبريالية
-
التحليل النفسي وتطبيقاته المعرفية 95
-
التحليل النفسي وتطبيقاته المعرفية 94
-
هل هناك من سيلوم ماركس لو...!؟
المزيد.....
-
شاهد ما جعل رئيس كوريا الجنوبية يضحك بهذه الطريقة في مقابلة
...
-
مادورو يلوّح بآلاف الصواريخ الروسية في وجه واشنطن.. ما حجم ت
...
-
الولايات المتحدة والاتحاد الأوروبي يشددان العقوبات على روسيا
...
-
حقيقة ظهور زرافة في نهر النيل بالقاهرة وإنقاذها بمروحية
-
قانون التربية الجنسية يضع قيم فرنسا على المحك
-
الهلال الأحمر القطري يطلق مشروعا لتوفير خدمات غسيل الكلى الط
...
-
الاتحاد الأوروبي يقر الحزمة الـ19 من العقوبات ضد روسيا
-
اختطاف مبشّر أميركي في النيجر واقتياده إلى جهة مجهولة
-
تيك توك يتحول إلى واحدة من أسرع وكالات الأنباء في العالم
-
شاهد: طائرة مقاتلة يتحكم فيها الذكاء الاصطناعي
المزيد.....
-
الصورة النمطية لخصائص العنف في الشخصية العراقية: دراسة تتبعي
...
/ فارس كمال نظمي
-
الآثار العامة للبطالة
/ حيدر جواد السهلاني
-
سور القرآن الكريم تحليل سوسيولوجي
/ محمود محمد رياض عبدالعال
-
-تحولات ظاهرة التضامن الاجتماعي بالمجتمع القروي: التويزة نمو
...
/ ياسين احمادون وفاطمة البكاري
-
المتعقرط - أربعون يوماً من الخلوة
/ حسنين آل دايخ
-
حوار مع صديقي الشات (ج ب ت)
/ أحمد التاوتي
-
قتل الأب عند دوستويفسكي
/ محمود الصباغ
-
العلاقة التاريخية والمفاهيمية لترابط وتعاضد عالم الفيزياء وا
...
/ محمد احمد الغريب عبدربه
-
تداولية المسؤولية الأخلاقية
/ زهير الخويلدي
-
كتاب رينيه ديكارت، خطاب حول المنهج
/ زهير الخويلدي
المزيد.....
|