
يحذر فريق من علماء النفس وعلوم الكمبيوتر من أن الذكاء الاصطناعي يضعف دقة الفروق الفردية بين الناس في طريقة الكلام والكتابة وحتى في التفكير.
ويشير الباحثون في جامعة جنوب كاليفورنيا الأمريكية إلى أنه سيكون من الصعب المحافظة على سمات بشرية كالتكيف والمنطق كلما ازداد اعتماد الناس على برامج المحادثة الآلية.
ووفقا لدراسة الفريق، المنشورة في مجلة “اتجاهات العلوم المعرفية” (تريندس إن كوجنتيف ساينسز)، فإنه إذا لم يتم كبح جماح هذا “التوحيد”، فقد تضعف قدرة الناس على التفكير الحدسي أو المجرد.
ويكتب الباحثون أن نماذج اللغة الكبيرة وهي إحدى تقنيات الذكاء الاصطناعي، أصبحت “متأصلة بعمق في حياة الناس”، مستشهدين بأدلة من مجالات اللغويات وعلم النفس والعلوم المعرفية وعلوم الكمبيوتر تظهر كيف أن اللغة والمنطق معرضان لخطر التنميط.
قال الباحثون: “يتضاءل التنوع المعرفي عالميا مع استخدام مليارات الأشخاص لعدد محدود من برامج المحادثة الآلية المدعومة بالذكاء الاصطناعي لأداء مهام متزايدة”، مما قد يؤدي إلى تراجع الإبداع ومهارات حل المشكلات.
وأشار الباحثون إلى أنه “عندما يستخدم الناس برامج المحادثة الآلية لتحسين كتاباتهم، على سبيل المثال، تفقد الكتابة طابعها الأسلوبي المميز”.
ووفقا لزيفار سوراتي من جامعة جنوب كاليفورنيا، فإن النتيجة هي “تعبيرات وأفكار نمطية من جانب جميع المستخدمين”.
وحذر الفريق من أن طريقة عمل برامج الدردشة الآلية قد تدفع الناس إلى تبني أنماط التفكير التي تظهر على الشاشة أمامهم، والتي قد تستند إلى “شريحة ضيقة ومتحيزة من الخبرة البشرية”، وذلك بحسب المادة التي تم تدريب البرنامج عليها.
وقال سوراتي: “بدلا من توجيه عملية توليد الإجابات بشكل فعال، غالبا ما يلجأ المستخدمون إلى الاقتراحات التي يقدمها النموذج، ويختارون الخيارات التي تبدو “جيدة بما يكفي” بدلا من ابتكار إجاباتهم الخاصة، مما يحول تدريجياً زمام المبادرة من المستخدم إلى النموذج”.
وأضاف الباحثون: “ينبغي على مطوري الذكاء الاصطناعي دمج المزيد من التنوع الواقعي في مجموعات تدريب نماذج التعلم الآلي، ليس فقط للمساعدة في الحفاظ على التنوع المعرفي البشري، بل أيضا لتحسين قدرات روبوتات المحادثة على الاستدلال”.
د ب أ











