مؤخراً، أثار مساعد جوجل الذكي، Gemini، مخاوف كبيرة بشأن الخصوصية بسبب وصوله غير المصرح به إلى مستندات الضرائب وتلخيصها. وقد تم تسليط الضوء على هذه المشكلات من قبل كيفن بانكستون، مستشار أول في حوكمة الذكاء الاصطناعي بمركز واشنطن للديمقراطية والتكنولوجيا، مما استدعى تأملاً نقدياً في دور الذكاء الاصطناعي في الحياة اليومية.
كشف بانكستون أن مساعد Gemini قام بتلخيص ملفات الضرائب الخاصة به تلقائياً دون طلب منه. وعندما بحث عن خيار لتعطيل هذه الميزة، تم توجيهه إلى إعداد غير موجود. وفي النهاية، اكتشف أن الإعداد الصحيح كان مغلقًا بشكل افتراضي، مما سمح لـ Gemini بالوصول إلى مستنداته ومعالجتها دون موافقة.
بينما قدمت جوجل تفاصيل حول كيفية استخدام Gemini في وثائق الدعم الخاصة بها، لم توضح بشكل واضح كيفية تعطيل هذه الميزة أو منع Gemini من الوصول إلى الملفات المخزنة في Google Drive. في منشورات لاحقة، شارك بانكستون حلاً يتضمن تعطيل إضافة Gemini لحظر الوصول إلى بيانات Drive، ولكن هذا الحل لم يتم اعتماده رسمياً من قبل جوجل.
أفاد العديد من المستخدمين أنه حتى بعد تعطيل إضافة Google Workspace، لا يزال مساعد Gemini يقرأ ويُلخص جميع المستندات في Drive. وقد أثار هذا تساؤلات جدية حول ممارسات جوجل في التعامل مع البيانات والتزامها بخصوصية المستخدمين.
حتى الآن، لم تصدر جوجل حلاً شاملاً أو توجيهاً حول هذه المسألة، واقتُرح فقط تعطيل ميزة Workspace Labs بالكامل لمنع Gemini من الوصول إلى الملفات على Google Drive. لكن هذا الخيار ليس عملياً للمستخدمين الذين يعتمدون على Workspace Labs.
لقد أدت الاستخدامات الواسعة للتكنولوجيا الذكية إلى تسليط الضوء على الحاجة الملحة لموازنة التقدم التكنولوجي مع حماية الخصوصية. وتعتبر الجدالات حول مساعد Gemini تذكيراً بأننا، رغم استفادتنا من مزايا الذكاء الاصطناعي، يجب أن نُعطي الأولوية للخصوصية الشخصية وأمن البيانات.
مع استمرار تطور التكنولوجيا وزيادة الوعي العام بقضايا الخصوصية، هناك أمل في أن تقوم عمالقة التكنولوجيا مثل جوجل بتطبيق تدابير أكثر فاعلية لحماية خصوصية المستخدمين وأمن بياناتهم. بالإضافة إلى ذلك، يجب على الحكومات والمجتمع ككل تعزيز التنظيم لدعم التطور الصحي لتكنولوجيا الذكاء الاصطناعي.