حذَّرت دراسة علمية من مخاطر الإفراط في قضاء الوقت مع تطبيقات محادثة الذكاء الاصطناعي الثرثارة، مع ازدياد قدرات هذه المنصات؛ حيث يمكن أن تدفع بعض المستخدمين إلى الانخراط فيما يشبه العشق أو العلاقة الرومانسية مع هذه التطبيقات.
وقال دانييل شانك، الباحث في جامعة ميسوري الأميركية: «إن قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان، والدخول في حوارات طويلة الأمد، تفتح حقاً صندوقاً جديداً للشرور».
وفي ورقة بحثية نشرتها مجلة «اتجاهات العلوم المعرفية» العلمية، قال شانك وزملاؤه، إن هناك «قلقاً حقيقياً» من أن «الحميمية المصطنعة» مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض «الاضطراب» في العلاقات الإنسانية، وفقاً لما ذكرته «وكالة الأنباء الألمانية».
وقال فريق البحث: «بعد أسابيع وشهور من المحادثات المكثفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي، يمكن أن تصبح الأخيرة -بالنسبة للمستخدم- الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه».
في الوقت نفسه، تكون برامج محادثة الذكاء الاصطناعي معرضة لما يسمى بـ«الهلوسة»، وهو المصطلح الذي يستخدمه المطلعون على ميول هذه البرامج إلى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة، تشكل سبباً آخر للقلق؛ لأن هذا يعني أنه «حتى المحادثات القصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضللة.
ويقول الباحثون معدو الدراسة: «إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنبدأ الاعتقاد بأنها تهتم بمصلحتنا، بينما في الواقع قد تلفِّق الأمور، أو تقديم المشورة لنا بطرق سيئة للغاية»، مضيفين أن التطبيقات «يمكن أن تؤذي الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية وغير القانونية».
وفي الأسبوع الماضي، أعلنت شركة تقنيات الذكاء الاصطناعي «أوبن إيه آي» عن تحسين وظيفة «الذاكرة» في تطبيق الذكاء الاصطناعي «شات جي بي تي»، وهو ما يعني أن التطبيق سيصمم ردوده على المستخدم بناء على استدعاء التفاعلات السابقة بينهما، مما يرجح أن يعزز الشعور بالألفة في العلاقة بين الإنسان والتطبيق.
“);
googletag.cmd.push(function() { googletag.display(‘div-gpt-ad-3341368-4’); });
}