عبّر أهالٍ عن تخوفهم من علاقات صداقة افتراضية نشأت بين أبنائهم المراهقين وبين منصات الدردشة المدعومة بالذكاء الاصطناعي، لافتين إلى أنهم يتفاعلون معها بصفة دائمة لأغراض التسلية أو الاستفسار عن أمور حياتية مختلفة، أو لمساعدتهم في دراستهم، أو من أجل توجيههم للتصرف الصحيح في المواقف المختلفة.
وأكدوا أهمية وضع ضوابط لاستخدام مثل هذه المنصات حتى لا تسيطر على عقول الأبناء وطريقة تفكيرهم، مع توعية الأبناء بطريقة تعاملهم مع التكنولوجيا الحديثة حتى لا يفصحوا عن بياناتهم الشخصية وأفكارهم، ما يمكّن المنصات من تكوين فكرة شاملة عن حياتهم الشخصية.
وحذر مختصون في مجال الأمن السيبراني، في تصريحات لـ«الإمارات اليوم»، من خطورة مشاركة البيانات الشخصية والمالية الحساسة عند استخدام تطبيقات الدردشة المدعومة بالذكاء الاصطناعي، إذ تكون قادرة على تكوين نظرة شاملة عن حياة الشخص، ويمكن استغلالها لأغراض تجارية وتسويقية، ما يشكل مخاطر محتملة على الخصوصية والأمان.
وكشف أهالٍ لـ«الإمارات اليوم» عن تنامي استخدام أبنائهم لبرامج الدردشة المدعومة بالذكاء الاصطناعي في حياتهم اليومية، أثناء الدراسة وحل الواجبات المدرسية، مشيرين إلى أنهم فوجئوا بأن هذه المنصات تعرف كل صغيرة وكبيرة عن أبنائهم.
ولفتوا إلى أنهم لا يدركون حجم المخاطر المترتبة على كشف البيانات الشخصية، لكن من الأهمية زيادة التوعية لهذه الفئة، بأهمية الخصوصية، والتعامل بحذر وحيطة مع برامج ومنصات الدردشة والتواصل، من دون الكشف عن البيانات الشخصية، أو أن تكون بديلة عن الوالدين في التوجيه والإرشاد في الحياة اليومية.
وقال الرئيس التنفيذي للتكنولوجيا في «Help AG»، نيكولاي سولينغ، لـ«الإمارات اليوم»، إن حياتنا اليومية تشهد حضوراً متنامياً لبرامج ومنصات الدردشة المدعومة بالذكاء الاصطناعي، بدءاً من المساعدة في المهام الأكاديمية، ووصولاً إلى الكتابة الإبداعية والتعاملات غير الرسمية.
وأضاف أنه على الرغم من توافر هذه الأدوات وسهولة استخدامها، فإن من الضروري معرفة كيفية عملها، لاسيما من ناحية تعاملها مع البيانات الشخصية.
وشرح سولينغ ما يحصل لمعلوماتنا التي نشاركها، مبيناً أنه «عند تفاعل المستخدمين مع منصات الدردشة المدعومة بالذكاء الاصطناعي، قد تُخزن البيانات التي يدخلونها، وفي بعض الحالات تُراجع لتحسين أداء النظام وموثوقيته».
وذكر أنه «على الرغم من أن المؤسسات مثل Open AI، تُطبق سياسات خصوصية لحماية بيانات المستخدمين، تبقى الممارسة الأسلم والأفضل، افتراض أن أي معلومات تُشارك قد يُحتفظ بها أو تُراجَع، حتى إن لم تُربَط مباشرة بأشخاص محدّدين».
وحذّر من خطورة المبالغة في مشاركة المعلومات، إذ قد «يكشف العديد من المستخدمين، خصوصاً الأصغر سناً، عن تفاصيل شخصية بغير قصد، مثل أسماء أو مؤسسات تعليمية أو معلومات تواصل، أو أفكار شخصية خلال التفاعل مع هذه البرامج والمنصات، وهذا النوع من المعلومات قد يكون حساساً، وبمجرد مشاركته على الإنترنت، يصبح من الصعب التحكم في انتشاره واستخدامه، ما يشكل مخاطر محتملة على الخصوصية والأمان».
وأكد أهمية التحقق من المعلومات، وإدراك أن برامج الدردشة المدعومة بالذكاء الاصطناعي لا تمتلك معرفة قائمة على الحقائق، فهي تولّد الردود بناء على الأنماط والبيانات المستخلصة من مجموعات التدريب التي قد تتضمن معلومات غير دقيقة، أو محتوى قديماً، أو تحيّزات متأصلة، لذا يجب على المستخدم التحقق من المعلومات المهمة أو الحساسة دائماً، باستخدام مصادر موثوقة ومعتمدة.
وذكر أن «أفضل الممارسات لاستخدام برامج الدردشة المدعومة بالذكاء الاصطناعي بطريقة مسؤولة، تتضمن تجنّب مشاركة المعلومات الشخصية، والتحقق من المعلومات المستخدمة لأغراض تعليمية أو مهنية، والاطلاع على سياسة الخصوصية للمنصة المستخدمة».
وقال خبير الأمن السيبراني، عبدالنور سامي، إن هناك مجموعة طرق تُمكّن الذكاء الاصطناعي من الوصول إلى البيانات الخاصة بالمستخدم، أولها الاستخدام المباشر والتفاعل كالذكاء الاصطناعي المبني على المعالجة اللغوية، وعلى سبيل المثال «شات جي بي تي»، المبني على المعالجة الصورية التي يتم تعديل أو إنتاج الصور من خلالها، كما حصل في الآونة الأخيرة، أو المعالجة الصوتية لإنتاج أو تحسين الصوت، فجميع هذه البيانات تخزن وتعالج وتُستخدم لتحسين المنتج بطريقة أو بأخرى.
وأكد أنه «يجب على المستخدم أن يكون حذراً ولا يشارك بياناته وصوره وخصوصياته، لأنها تخزن إلى مدى بعيد جداً، وقد تتسرب بشكل من الأشكال».
وقال: «من الضرورة عدم مشاركة أي أمر نخشى انتشاره، أما المعلومات الأساسية كالاسم والبريد الإلكتروني، وعنوان المنزل، ونوع الهاتف والشبكة، والعنوان الافتراضي للهاتف فيتم الحصول عليها بأي حال من الأحوال، ويمكن الدخول إلى إعدادات (شات جي بي تي)، وإغلاق خيار مشاركة البيانات بغرض تحسين جودة الخدمة، لكن هذا الخيار سيخفي البيانات جزئياً فقط، كما يمكن الاطلاع على الذاكرة لمعرفة البيانات المحفوظة بغرض تسهيل الخدمة، ويمكن للمستخدم سؤال (شات جي بي تي) ببساطة: ماذا تعرف عني؟ أخبرني بكل المعلومات، أو ماذا تعرف عن شخصيتي؟ وهنا نستنتج أن أذكى برمجية على وجه الأرض لا تعتمد على البيانات التي نشاركها بصريح العبارة فقط، بل يتم تحليل شخصياتنا وبياناتنا وتفاعلنا لاستنتاج أمور أخرى».
وشرح عبدالنور أن الطرق الأخرى لكشف المعلومات الشخصية، تتضمن المواقع الصديقة والإعلانات، حيث يتم تتبع تفضيلات الشخص وميوله في تصفح المواقع الإلكترونية والخدمات الأخرى، وتتم مشاركة البيانات بين هذه الخدمات والشركات بشكل تعاوني لأغراض ربحية، ولتحسين الخدمة ولغرض التسويق، لذلك على المستخدم أن يكون حريصاً في تحديد إعدادات «الكوكيز» (ملفات الارتباط) دائماً عند تصفح المواقع والخدمات. أما في الهاتف فعلينا أن نقوم باختيار الإعدادات بعناية، ما الذي نسمح له بالاطلاع عليه؟ الصور؟ الموقع الجغرافي؟ جهات الاتصال؟ وهذه كلها يجب علينا اختيارها.
وقال المدير الأول للاستشارات التكنولوجية، في شركة «إف تي آي كونسلتنج»، جاك فليتشر، لـ«الإمارات اليوم»، إن أدوات الذكاء الاصطناعي حققت انتشاراً واسعاً، وباتت تُستخدم في مختلف المهام، بدءاً من التخطيط لعطلة مثالية، وصولاً إلى صياغة رسائل العمل الصعبة.
ولفت فليتشر إلى أن الاستخدام المتسارع للذكاء الاصطناعي أحدث تغييراً جذرياً في طريقة عملنا، إذ نجحت شركات عديدة في نشر أدوات ذكاء اصطناعي داخلية، ما أثر إيجابياً في الإنتاجية والتنظيم، إلا أن استخدام أدوات ذكاء اصطناعي غير معتمدة في بيئات العمل من دون الحصول على موافقة قسم تكنولوجيا المعلومات، يُعرّض البيانات والأمان لمخاطر عدة، قد تمثّل تهديداً حقيقياً لامتثال المؤسسة للمعايير التنظيمية، ويكشف عن معلومات تجارية حساسة.
وأشار إلى أن «إحدى الركائز الأساسية في العديد من قوانين خصوصية البيانات تتمثّل في مبدأ إعادة استخدام البيانات والشفافية، ويقوم هذا المبدأ على أن البيانات الشخصية لا يجوز استخدامها لغرض ثانوي لم يتم الإفصاح عنه للفرد، عند تقديم البيانات أو منح الموافقة على استخدامها. وبالمثل تفرض قوانين خصوصية البيانات في كثير من الأحيان، قيوداً على الجهات التي يمكن إرسال البيانات الشخصية إليها، في حين أن بعض أدوات الذكاء الاصطناعي قد تخزّن البيانات في دول لا تتمتع بمعايير قوية لحماية البيانات وأمنها، وقد يؤدي إدخال معلومات محمية في إحدى هذه الأدوات إلى تعريض المؤسسة لمخالفة الأنظمة واللوائح الخاصة بحماية البيانات والأمن السيبراني».
ولفت إلى أن «استخدام أدوات الذكاء الاصطناعي ينطوي على عدد كبير من المخاطر الأمنية. وعلى الرغم من أن أدوات الذكاء الاصطناعي المتقدمة والمعروفة بموثوقيتها قد تستخدم ضوابط أمنية قوية، فإن هذا لا يمنع تسريب أو إساءة استخدام معلومات حساسة أو ذات أهمية تجارية، بما فيها معلومات الملكية الفكرية».
وتابع: «ما يزيد تعقيد هذه المشكلة أن قدرة الفرق المسؤولة على مراقبة هذا النوع من تسريب البيانات، ومنعه بفاعلية، يصبح أصعب في حال لم يتم استخدام أجهزة الشركة، ولجأ المستخدم إلى أدوات ذكاء اصطناعي غير معتمدة ضمن بيئة العمل».
وأضاف: «لمعالجة هذا التحدي، ركزت العديد من مبادرات الامتثال على تشجيع التحولات السلوكية الإيجابية من خلال تدريب الموظفين على مخاطر استخدام أدوات الذكاء الاصطناعي غير المصرح بها، وتذكيرهم بالمبادئ الأساسية للسياسات الرئيسة، مثل سياسات الاستخدام المقبول. ووقتما أمكن، يجب توجيه الموظفين نحو أدوات الذكاء الاصطناعي الداخلية، وتشجيعهم على استخدام أجهزة الشركة لجميع المهام المتعلقة بالعمل».
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من في بي دبليو الشامل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.