مع انتشار تطبيقات محادثات الذكاء الاصطناعي، حذّرت دراسة علمية من مخاطر الإفراط في استخدام هذه المنصّات.
وأوضح الباحث دانييل شانك في جامعة "ميسوري" الأميركية أن "قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان والدخول في حوارات طويلة الأمد تفتح المجال لأمور شريرة جديدة".
وأضاف في ورقة بحثية نشرتها مجلة "اتجاهات العلوم المعرفية" العلمية، أن هناك "قلقاً حقيقياً من أن الحميمية المصطنعة مع تطبيقات محادثة الذكاء الاصطناعي قد تؤدي الى بعض الاضطراب في العلاقات الإنسانية".
وأوضح فريق البحث أنه "بعد أسابيع وأشهُر من المحادثات المكثّفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي يمكن أن تصبح الأخيرة بالنسبة الى المستخدم الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه".
وحذّرت الدراسة من أن هذه البرامج قد تسبّب نوعاً من "الهلوسة" لدى بعض المستخدمين، ما يؤدي الى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة وتشكّل سبباً آخر للقلق، لأن هذا يعني أن "حتى المحادثات قصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضلّلة".
وقال الباحثون معدّو الدراسة: "إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، سنعتقد أنها تهتم بمصلحتنا، بينما هي في الواقع تقدّم المشورة لنا بطرق سيئة للغاية، وبالتالي قد تؤذي هذه التطبيقات مستخدميها من خلال التشجيع على السلوكيات المنحرفة وغير الأخلاقية أوالخارجة على القانون".