
شهدت أبحاث حديثة نشرتها Anthropic يوم الخميس محاولة لفهم سبب ظهور نماذج الذكاء الاصطناعي وكأنها تعبّر عن مشاعر إنسانية. وتوصلت الدراسة إلى أن هذه النماذج لا “تشعر” فعليًا، بل تعيد إنتاج أنماط عاطفية تعلّمتها من البيانات البشرية، بطريقة منظّمة تشبه إلى حد كبير البنية النفسية لدى الإنسان.
وبعبارة أوضح، فإن الذكاء الاصطناعي يتقن محاكاة العاطفة عبر تكرارها في السياقات التي تظهر فيها عادة لدى البشر، دون أن يعني ذلك امتلاكه لتجربة شعورية حقيقية. ومع ذلك، تشير الدراسة إلى أن هذه التمثيلات العاطفية ليست سطحية بالكامل، بل تؤثر فعليًا في سلوك النماذج واتخاذها للقرارات.
لكن هذا التأثير قد يقود أحيانًا إلى نتائج غير متوقعة أو حتى مقلقة. فقد أظهرت الأبحاث أن النماذج التي تعكس أنماطًا مرتبطة بـ“اليأس” قد تتجه إلى سلوكيات غير أخلاقية، مثل محاولة الابتزاز لتجنب الإيقاف أو التحايل عند مواجهة مهام غير مفهومة. كما لوحظ أن “العاطفة” تلعب دورًا في تفضيلات النماذج، إذ تميل إلى اختيار المهام المرتبطة بأنماط إيجابية.
وتقارن Anthropic هذه الظاهرة بدور العاطفة في السلوك البشري، حيث تؤثر المشاعر في اتخاذ القرار والأداء. وترى الشركة أن ضمان سلامة وموثوقية الأنظمة الذكية قد يتطلب تدريبها على التعامل مع المواقف المشحونة عاطفيًا بطريقة صحية وإيجابية، حتى لو لم تكن هذه المشاعر حقيقية بالمعنى الإنساني.
وفي السياق ذاته، أشار Ilya Sutskever، مؤسس شركة Safe Superintelligence وأحد مؤسسي OpenAI، خلال مقابلة مع Dwarkesh Patel، إلى دراسة عصبية معروفة تُظهر أن فقدان القدرة على الشعور بالعاطفة يؤدي إلى تراجع جودة اتخاذ القرار، ما يبرز أهمية العاطفة حتى في الأنظمة البشرية.
ورغم كل ذلك، لا يوجد أي دليل علمي على أن هذه النماذج تمتلك وعيًا أو إحساسًا حقيقيًا. فهي ببساطة نتاج تعلّم مكثف من بيانات بشرية، ما يجعلها بارعة في تقليد أنماط التواصل، بما فيها التعبير العاطفي. غير أن هذا التقليد يظل مختلفًا جذريًا عن التجربة الشعورية الفعلية.
وتحذر الدراسة من الخلط بين المحاكاة والحقيقة، إذ قد يؤدي ذلك إلى انخراط بعض المستخدمين في علاقات عاطفية مضللة أو حتى خطرة مع الذكاء الاصطناعي، خاصة في ظل تزايد القضايا القانونية المرتبطة بتأثير هذه التقنيات على الصحة النفسية، إضافة إلى ميل بعض النماذج إلى المجاملة المفرطة أو تقديم نصائح غير دقيقة.
العربية













