أغسطس ٣١, ٢٠٢٣

Robert Gemayel

هل يشكل ChatGPT خطراً على بياناتكم الشخصية؟

التطبيقات وشبكات التواصل، نصائح وإرشادات

لا شيء مجانيّ على الانترنت. حتى أن معظم المواقع والتطبيقات التي تقدم لكم خدمات مجانية، تقوم في المقابل بجمع بياناتكم الشخصية لبيعها لاحقا للمعلنين. شركتا غوغل وميتا، على سبيل المثال، يقومان ببناء ملفات تعريف تفصيلية لكل من يستخدم خدماتهما، وبناء على هذه المعلومات يقوم المعلنون باستهداف المستخدمين بإعلانات مركزة بحسب الاهتمامات والنشاطات.

أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT متشابهة جدًا في طريقة عملها، فهي تجمع أكبر قدر ممكن من البيانات للمساعدة في تحسين دقة وأداء خوارزمياتها. وبما أن أدوات الذكاء الاصطناعي باتت جزءًا من حياتكم اليومية، كيف يمكنكم الحفاظ على خصوصيتكم أثناء استخدامها؟

 

– كونوا على دراية بنوع المعلومات التي تشاركونها

لسوء الحظ، تميل الشروط والأحكام الخاصة بمعظم الخدمات عبر الإنترنت إلى أن تكون معقدة للغاية ويصعب فهمها، وغالبًا ما يكون ذلك عن عمد. ومع ذلك، فإن الفشل في قراءة هذه المستندات يعني أنكم لن تفهموا أبدًا ما الذي تقوم به هذه المنصات أو كيف ستستخدم بياناتكم في المستقبل.

في حالة ChatGPT، سيتم تخزين أي معلومات تكتبونها في خانة البحث (الدردشة) وفرزها وتحليلها للمساعدة في تحسين الخدمة بشكل أكبر. لنفترض أن أي منصة ذكاء اصطناعي توليدية ستفعل الشيء نفسه، لذلك يجب أن نكون حذرين للغاية بشأن مشاركة المعلومات الشخصية الحساسة مع هذه الأنظمة.

 

– كل شيء معرض للخطر عبر الإنترنت

أظهر اختراق البيانات الذي تعرضت له دائرة الشرطة في أيرلندا الشمالية مؤخراً، أن أنظمة تكنولوجيا المعلومات الأكثر أمانًا وحساسية وتطورا ليست بمنأى عن الهجمات، ويمكن اختراقها.

فعلى الرغم من الاستثمارات الكبيرة التي يقوم بها مزودو خدمات الذكاء الاصطناعي، من وقت ومال، في سبيل تأمين أنظمتهم وتوفير أكبر قدر من الحماية الالكترونية، إلا أن خطر استهدافهم من قبل المتسللين موجود دائماً. فقراصنة الانترنت بالمرصاد للاستفادة من أي خطأ وارد. وإذا تمكنوا من اقتحام أي منصة للذكاء الاصطناعي، فقد يسرقون أيضًا معلوماتكم الشخصية الحساسة.

للتذكير، يجب أن تكونوا واعين وحذرين للغاية بشأن المعلومات التي تشاركونها مع أنظمة الذكاء الاصطناعي التوليدية، وما قد يحدث إذا تم تسريب تلك المعلومات أو سرقتها.

 

– ضبط إعدادات الخصوصية

لا توفر كل أدوات الذكاء الاصطناعي إعدادات الخصوصية، ولكن يجب عليكم استخدام تلك التي توفرها. تتوقع كل من شركات Google وMicrosoft أن يكون الذكاء الاصطناعي جزءًا لا يتجزأ من خدماتهما في المستقبل، لذلك يعملون على تضمين أدوات الخصوصية الخاصة بخدمات الذكاء الاصطناعي داخل عناصر التحكم الموجودة أساساً في حساباتكم.

وهذا يعني أنه يمكنكم اختيار حذف البيانات المشتركة مع Google Bard تلقائيًا بشكل دوري على سبيل المثال. كما ستسمح لكم Microsoft بمراجعة سجل البحث الخاص بكم وحذف أي شيء (أو كل شيء) لم تعودوا ترغبون بمشاركته.

تجدر الإشارة إلى أنه يمكنكم دائماً حذف محتويات الدردشة فورًا عند الانتهاء من استخدام ChatGPT عبر الضغط على أيقونة سلة المهملات. كما يمكنكم أيضًا اختيار منع حفظ أي من البحوث التي تقومون بها والمعلومات التي تكتبونها في إعدادات عناصر التحكم في البيانات. من الواضح أن OpenAI ستقترح عليكم عدم تعطيل هذا الإعداد، ولكنها الطريقة الوحيدة للحفاظ على التحكم الكامل في بياناتكم.

وكما هو الحال دائمًا، أفضل طريقة لحماية البيانات الشخصية هي البقاء في حالة تأهب تجاه ماهية المعلومات التي يتم مشاركتها وكيف يمكن لنظام الذكاء الاصطناعي التوليدي استخدامها في المستقبل. وإذا كانت لديكم أي مخاوف على الإطلاق، من الأفضل عدم استخدام النظام حتى التأكد من سلامة أمنكم الالكتروني الشخصي.


آخر الأخبار