خبراء في الأمن السيبراني يحذرون من مخاطر مشاركة البيانات الحساسة مع روبوتات الدردشة

خبراء في الأمن السيبراني يحذرون من مخاطر مشاركة البيانات الحساسة مع روبوتات الدردشة

في خضم الانتشار الواسع لروبوتات الدردشة كـ”ChatGPT”، حذر خبراء في الأمن السيبراني، من  من مخاطر مشاركة البيانات الحساسة مع هذه الروبوتات لاحتمالية تعرضها للاختراق أو الاحتيال، لاسيما مع تسجيل تسريبات سابقة طالت أكثر من 100 ألف حساب وفق ما أوردته مواقع متخصصة في الأمن الرقمي.

وركز الخبراء  على خمس معلومات يجب عدم مشاركتها: مثل البيانات الشخصية (كالإسم والعنوان)، والمعلومات البنكية، كلمات المرور، والأسرار العاطفية، والملكية الفكرية مثل أفكار المشاريع أو أكواد البرمجة.
وأوضحوا أن بعض روبوتات الدردشة قد تحتفظ بالمحادثات لأغراض تدريبية رغم حذفها من خانة نتائج البحث، داعين المستخدمين إلى تفعيل وضع الخصوصية، ومسح المحادثات الحساسة.
وفي هذا الصدد حذر أيضا سام ألتمان المدير التنفيذي لشركة “OpenAI”  خلال ظهوره الأخير في بودكاست “This Past Weekend”  من التحدث مع “شات جي بي تي” كصديق مُقرب وكشف أسرار شخصية لغياب الخصوصية والحماية القانونية قائلا: “يتحدث الناس عن الكثير من الأمور الشخصية مع شات جي بي بيتي، خاصة فئة الشباب، إذ يوظفونه كمعالج نفسي ومدربا للحياة ويسألونه ماذا يجب أن أفعل”

وأضاف ألتمان أن المحادثات باستخدام أداة الذكاء الاصطناعي، على عكس المحادثات مع المعالج النفسي أو الطبيب أو المحامي، لا تتمتع بسرية قانونية، موضحا أن الضمانات القانونية نفسها لا تحمي المحادثات الشخصية في البيئة المهنية ولا تنطبق على الذكاء الاصطناعي. وأن “OpenAI” ستكون ملزمة بقوة القانون الإفصاح عن المحادثات في حال طلب منها ذلك.

وكانت شركة شركة OpenAI قد طعنت في أمر قضائي بخصوص قضية حقوق نشر رفعتها صحيفة نيويورك تايمز، يُلزمها بالحفاظ على بيانات مخرجات ChatGPT لأجل غير مسمى، بحجة أن الأمر يتعارض مع التزاماتها المتعلقة بالخصوصية تجاه المستخدمين.

ويأتي هذا التحذير في وقت شهد الاعتماد على الذكاء الاصطناعي ارتفاعا هائلا خلال السنوات الماضية، مع تزايد دمج الشركات والأفراد للأدوات المدعومة به في حياتهم اليومية. إذ سجلت سنة 2024 نحو 314 مليون مستخدم، مع احتمال وصول العدد إلى نحو 729 مليونا بحلول سنة 2030

videossloader مشاهدة المزيد ←