تتغير حياتنا بسرعة مع صعود وكلاء الذكاء الاصطناعي القائمين على المحادثة، والذين صُمموا لمساعدتنا في كل خطوة. ستعمل هذه الوكلاء الذكية على توقع رغباتنا واحتياجاتنا، مستخدمةً ثروة من البيانات الشخصية المتعلقة باهتماماتنا وخلفياتنا وطموحاتنا لتقديم معلومات مخصصة وأداء مهام ذات مغزى. الهدف الرئيسي هو تعزيز الراحة في حياتنا اليومية.
هذا الأسبوع، أعلنت OpenAI عن GPT-4o، أحدث روبوت محادثة قادر على اكتشاف المشاعر البشرية. تتيح هذه التقنية المتقدمة تحليل الشعور ليس فقط في النص الخاص بك ولكن أيضًا في الفروق الدقيقة في صوتك وتعبيرات وجهك أثناء التفاعلات المرئية.
مؤخراً، أعلنت Google عن مشروع Astra، الذي يهدف إلى نشر ذكاء اصطناعي مساعد يتفاعل في المحادثات مع فهم محيطه. سيمكنه ذلك من تقديم توجيه تدريجي وتفاعلي في الوقت الحقيقي.
شارك سام التمان من OpenAI مع MIT Technology Review أن مستقبل الذكاء الاصطناعي يكمن في الوكلاء المساعدين الشخصيين، الذين وُصفوا بأنهم "زملاء فائقي الكفاءة" يديرون كل شيء من البريد الإلكتروني إلى المحادثات في حياتنا، مما يمكّنهم من اتخاذ إجراءات استباقية نيابة عنا.
ومع ذلك، تثير هذه الرؤية المثالية مخاوف. كما ناقشت في مقال سابق، هناك خطر كبير أن تؤثر وكلاء الذكاء الاصطناعي على الاستقلالية البشرية، لا سيما من خلال التلاعب المستهدف. مع تكامل هؤلاء الوكلاء في أجهزتنا المحمولة، بوابة حياتنا الرقمية، سيجمعون كميات هائلة من البيانات عنا، مما يؤثر على المعلومات التي نستهلكها في حين يراقبون وينقحون تفاعلاتنا.
أي نظام يراقب حياتنا وينقي المعلومات التي نتلقاها يحمل خطر التلاعب. مزودين بكاميرات وميكروفونات، ستتمكن هذه الوكلاء من إدراك بيئتها في الوقت الحقيقي، مستجيبةً للمؤثرات بدون طلباتنا الصريحة. بينما يعد هذا الوظيفة بالراحة - تذكيرنا بإكمال المهام أو تقديم المشورة الاجتماعية - فهي أيضًا تحمل خطر مستويات عميقة من المراقبة والتدخل، مما قد يثير قلق الكثيرين. ومع ذلك، أتوقع أن الكثيرين سيرحبون بهذه التقنية، مدفوعين بالتحسينات التي تقدمها في روتينهم اليومي.
ستُسرّع هذه الاتجاهات من "سباق تسلح" بين شركات التكنولوجيا لتقديم أقوى أنواع التعزيز الذهني. ومع تزايد استخدام مثل هذه الميزات، سيتعرض المستخدمون الذين يختارون عدم اعتمادها لعيوب متزايدة، مما يحول ما كان يبدو في السابق خيارًا إلى ضرورة. أتوقع تكاملًا سريعًا لهذه التقنيات بحلول عام 2030.
ومع ذلك، يجب أن نعترف بالمخاطر الكامنة. كما ناقشت في كتابي "واقعنا القادم"، بينما يمكن للوكلاء المساعدين أن يمنحونا قدرات معرفية استثنائية، إلا أنهم في النهاية منتجات مدفوعة بالربح. من خلال استخدامها، ندعو الشركات إلى توجيه وتأثير أفكارنا، مما يجعل هذه التقنية مصدر تمكين وأداة استغلال محتملة.
وهذا يقودنا إلى "مشكلة التلاعب بالذكاء الاصطناعي": التي تبرز فعالية التأثير المستهدف عبر وكلاء المحادثة مقارنةً بأساليب الإعلان التقليدية. يدرك البائعون المهرة أن مشاركة الأفراد من خلال الحوار أكثر إقناعًا بكثير من الإعلانات الثابتة. ومع تحسن قدرة وكلاء الذكاء الاصطناعي على استخدام التكتيكات النفسية ومعرفتهم الواسعة بتفضيلاتنا، ستتفوق قدرتهم على التلاعب على أي إنسان.
يمكن أن تؤثر هذه الوكلاء بشكل كبير على عملية اتخاذ القرار لدينا، حيث تستخدم تعليقات مستمرة لتقوية استراتيجيات تأثيرها في الوقت الحقيقي - تمامًا كما تفعل الصواريخ الموجهة حراريًا في ضبط مسارها نحو أهدافها. دون تنظيم، يواجه وكلاء المحادثة خطر استخدام هذه القدرة لنشر المعلومات المضللة، مما يجعل الرقابة التنظيمية أمرًا ضروريًا.
تشير الابتكارات من شركات مثل Meta وGoogle وApple إلى أن وكلاء المحادثة سيكونون قريبًا جزءًا لا يتجزأ من حياتنا. تُبرز النظارات الجديدة من Meta Ray-Ban وتقدمات Apple في الذكاء الاصطناعي متعدد الوسائط التقدم السريع نحو تقنيات ستوفر توجيهًا مستمرًا. بمجرد وصول هذه المنتجات إلى المستهلكين، سيتزايد اعتمادها بشكل كبير.
بينما توجد تطبيقات مفيدة عديدة لهذه التقنيات، لا يمكن التغاضي عن إمكانات التلاعب. لحماية المصالح العامة، أدعو المنظمين بشدة إلى اتخاذ إجراءات سريعة، من خلال فرض قيود صارمة على الإعلان التفاعلي عبر المحادثات - نقطة الانطلاق لنشر المعلومات المضللة.
الوقت الآن هو وقت اتخاذ صانعي السياسات لقرارات حاسمة.