إنه ليس خللًا في المصفوفة: يتحول أصغر أعضاء Igeneration إلى رفاق Chatbot لكل شيء بدءًا من المشورة الجادة إلى الترفيه البسيط.

في السنوات القليلة الماضية ، تقدمت تقنية الذكاء الاصطناعى حتى الآن لرؤية المستخدمين قد انتقلوا مباشرة إلى نماذج الآلات لأي شيء تقريبًا ، ويقود الأجيال Z و Alpha هذا الاتجاه.

في الواقع ، نظرت دراسة في مايو 2025 التي أجرتها وسائل الإعلام المنطقية في الحياة الاجتماعية لـ 1060 من المراهقين الأمريكيين الذين تتراوح أعمارهم بين 13 و 17 عامًا ووجدت أن 52 ٪ من المراهقين في جميع أنحاء البلاد يستخدمون chatbots مرة واحدة في الشهر على الأقل لأغراض اجتماعية.

قال المراهقون الذين استخدموا AI chatbots لممارسة المهارات الاجتماعية إنهم مارسوا مبتدئين في المحادثة ، ويعبرون عن المشاعر ، وتقديم المشورة ، وحل النزاع ، والتفاعلات الرومانسية ، والدفاع عن النفس-وحوالي 40 ٪ من هؤلاء المستخدمين طبقوا هذه المهارات في المحادثات الحقيقية لاحقًا.

على الرغم من بعض التطورات التي يحتمل أن تكون مفيدة للمهارات ، يرى مؤلفو الدراسة زراعة السلوكيات المضادة للمجتمع ، والتعرض للمحتوى غير المناسب للعمر والمشورة الضارة المحتملة للمراهقين كسبب كافي للحذر من الاستخدام دون السن القانونية.

وكتب مؤلفو الدراسة في استنتاج الورقة: “لا ينبغي لأحد الأصغر من 18 عامًا استخدام رفاق الذكاء الاصطناعي”.

بدأت أجراس الإنذار الحقيقية في الرنين عندما كشفت البيانات أن 33 ٪ من المستخدمين يفضلون اللجوء إلى رفاق الذكاء الاصطناعى على أشخاص حقيقيين عندما يتعلق الأمر بالمحادثات الجادة ، وقال 34 ٪ إن المحادثة مع chatbot تسببت في عدم الراحة ، في إشارة إلى كل من الموضوع والاستجابة العاطفية.

وحذر مؤلفو الدراسة: “إلى أن ينفذ المطورون ضمانًا قويًا للسن فيما يتجاوز التقدير الذاتي ، ويتم إعادة تصميم المنصات بشكل منهجي للقضاء على التلاعب العلائقي ومخاطر التبعية العاطفية ، فإن إمكانات الضرر الخطير تفوق أي فوائد”.

على الرغم من أن استخدام الذكاء الاصطناعى ينتشر بالتأكيد بين الأجيال الشابة-أظهر استطلاع حديث أن 97 ٪ من Gen-Z استخدموا التكنولوجيا-وجدت دراسة وسائل الإعلام المنطقية أن 80 ٪ من المراهقين قالوا إنهم ما زالوا يقضون وقتًا مع أصدقاء IRL أكثر من chatbots عبر الإنترنت. الراحة سهلة ، الآباء: لا يزال المراهقون اليوم يعطون الأولوية للوصلات البشرية ، على الرغم من المعتقدات الشعبية.

ومع ذلك ، يتم تحذير الناس من جميع الأجيال من استشارة الذكاء الاصطناعي لأغراض معينة.

كما تم الإبلاغ عن المنشور سابقًا ، يمكن أن تكون مجموعات AI chatbots ونماذج اللغة الكبيرة (LLM) ضارة بشكل خاص لأولئك الذين يبحثون عن العلاج ويميلون إلى تعريض تلك الأفكار الانتحارية للخطر.

وقال Niloufar Esmaeilpour ، مستشار سريري في تورنتو ، “أدوات الذكاء الاصطناعى ، بغض النظر عن مدى تطورها ، على الاستجابات المبرمجة مسبقًا ومجموعات البيانات الكبيرة”.

“إنهم لا يفهمون” لماذا “وراء أفكار أو سلوكيات شخص ما.”

يمكن أن يكون لمشاركة المعلومات الطبية الشخصية مع AI chatbots عيوبًا ، لأن المعلومات التي يتجولونها ليست دقيقة دائمًا ، وربما بشكل أكثر إثارة للقلق ، فهي ليست متوافقة مع HIPAA.

يمكن أن يهبطك تحميل مستندات العمل للحصول على ملخص أيضًا في الماء الساخن ، حيث يمكن استخراج اتفاقيات الملكية الفكرية والبيانات السرية وغيرها من أسرار الشركة وربما تسربها.

شاركها.