باحثون يدعون لتعزيز آليات الحماية داخل الأنظمة لرصد الأفكار الخطرة مبكرًا
الإثنين ٢٠ - أبريل - ٢٠٢٦
كشفت دراسة حديثة عن وجود مخاطر محتملة تتعلق بالصحة النفسية لدى بعض المستخدمين في ظل الاعتماد المتزايد على تقنيات الذكاء الاصطناعي، خاصة مع تزايد حالات الضيق النفسي والأفكار الانتحارية خلال الفترة الأخيرة.
وأوضح الباحثون أن العديد من الشباب باتوا يلجأون إلى تطبيقات الذكاء الاصطناعي كوسيلة أولى للتعبير عن مشاعرهم وأزماتهم النفسية، وهو ما يفرض ضرورة تطوير آليات وقائية فعالة داخل هذه الأنظمة لضمان سلامة المستخدمين.
وفي إطار الدراسة، تم إجراء تجربة لتضمين أدوات حماية داخل الأنظمة الذكية، تتيح لها التعرف على الأنماط اللغوية المرتبطة بالأفكار الانتحارية، والعمل على التدخل بشكل غير مباشر عبر توجيه المستخدم نحو الدعم المناسب وتعزيز الروابط الاجتماعية.
وأشار الباحثون إلى أن الدور الأساسي للذكاء الاصطناعي لا يجب أن يقتصر على التفاعل مع المستخدم، بل يتعين أن يمتد ليشمل تسهيل الوصول إلى الدعم المهني والتدخل المبكر في الحالات التي تتطلب مساعدة متخصصة.
ودعا الخبراء إلى تطوير النماذج الذكية لتكون أكثر قدرة على فهم السياق العاطفي بدقة، مع ضرورة تدريبها على بيانات متنوعة وآمنة، إلى جانب إشراك متخصصي الصحة النفسية في تصميم هذه الأنظمة، لضمان تقديم دعم فعّال وآمن للمستخدمين.


