إذا شعرت برغبة غير مفسرة في الابتسام لهذا الحجر، فأنت لست وحدك.
كثيرًا ما نعزى صفات بشرية للأشياء، وهي ظاهرة تُعرف باسم التعزيز البشرية، والتي تزداد أهمية في تفاعلاتنا مع الذكاء الاصطناعي.
يمكن أن يظهر التعزيز البشرية عندما نقول "من فضلك" و"شكرًا لك" لدردشة الروبوتات أو نعبر عن إعجابنا بمخرجات الذكاء الاصطناعي المولدة التي تفي بتوقعاتنا. ومع ذلك، فإن التحدي الحقيقي يظهر عندما نتوقع من الذكاء الاصطناعي تقليد أدائه في مهام بسيطة - مثل تلخيص مقال - في مواضيع أكثر تعقيدًا، مثل مجموعة من الأوراق العلمية. بالمثل، عندما يقدم الذكاء الاصطناعي إجابة حول أرباح Microsoft ونتوقع منه إجراء أبحاث سوقية استنادًا إلى نصوص الأرباح من عدة شركات، فإننا نضع أنفسنا في موقف محبط.
على الرغم من أن هذه المهام تبدو متشابهة، إلا أنها تختلف جوهريًا لنماذج الذكاء الاصطناعي. كما توضح كاسي كوزيركوف: "الذكاء الاصطناعي إبداعه مثل فرشاة الرسم." العقبة الرئيسية في تحقيق الإنتاجية مع الذكاء الاصطناعي تكمن في قدرتنا على استخدامه بشكل فعال كأداة.
من خلال التجارب، خفض بعض العملاء عدد تراخيص Microsoft Copilot بعد أن وجد المستخدمون أنها ليست ذات قيمة. تنبع هذه الفجوة من التوقعات غير الواقعية حول قدرات الذكاء الاصطناعي مقابل واقع أدائه. لقد مررنا جميعًا بلحظة إدراك: "أوه، الذكاء الاصطناعي ليس جيدًا في ذلك."
بدلاً من التخلي عن الذكاء الاصطناعي المولد، يمكننا تنمية الحدس اللازم لفهم الذكاء الاصطناعي والتعلم الآلي بشكل أفضل، مع تجنب مخاطر التعزيز البشرية.
تحديد الذكاء والاستدلال في التعلم الآلي
لطالما كانت تعريفات الذكاء غامضة. هل يعتبر سلوك كلب يتوسل للحصول على مكافآت سلوكًا ذكيًا؟ وعندما يستخدم قرد أداة، هل يظهر ذلك ذكاءً؟ وبالمثل، عندما تقوم الحواسيب بهذه المهام، هل يمكننا اعتبارها ذكية؟
حتى وقت قريب، كنت أعتقد أن نماذج اللغة الكبيرة (LLMs) لا تستطيع "الاستدلال" حقًا. ومع ذلك، أدى نقاش حديث مع مؤسسي الذكاء الاصطناعي الموثوقين إلى اقتراح حل محتمل: وضع إطار لتقييم مستويات الاستدلال في الذكاء الاصطناعي.
تمامًا كما لدينا إطارات لفهم القراءة والاستدلال الكمي، فإن تقديم إطار محدد للذكاء الاصطناعي يمكن أن يساعد في توضيح القدرات المتوقعة للاستدلال في حلول مدعومة بنماذج اللغة الكبيرة، إلى جانب أمثلة عن ما هو غير واقعي.
التوقعات غير الواقعية بشأن الذكاء الاصطناعي
يميل البشر إلى أن يكونوا أكثر تسامحًا مع الأخطاء التي يرتكبها البشر. على الرغم من أن السيارات ذاتية القيادة تعتبر أكثر أمانًا إحصائيًا من السائقين البشر، فإن الحوادث تثير ضجة كبيرة. تزيد هذه الاستجابة من خيبة الأمل عندما يفشل الذكاء الاصطناعي في مهام نتوقع أن يديرها البشر جيدًا.
يصف العديدون الذكاء الاصطناعي بأنه جيش ضخم من "المتدربين"، ومع ذلك يمكن أن تتعثر الآلات بطرق لا يفعلها البشر، حتى في مجالات تتفوق فيها.
نتيجة لذلك، تقل نسبة المؤسسات التي تنجح في تطوير وتنفيذ مشاريع الذكاء الاصطناعي المولد عن 10%. complicate هذه المبادرات التباينات في القيم التجارية والتكاليف غير المتوقعة المتعلقة بتنظيم البيانات.
لتجاوز هذه العقبات وتحقيق النجاح في المشاريع، من الضروري تزويد مستخدمي الذكاء الاصطناعي بالحدس اللازم لمعرفة متى وكيف يستخدم الذكاء الاصطناعي بفعالية.
التدريب لبناء الحدس مع الذكاء الاصطناعي
يعتبر التدريب أمرًا حيويًا للتكيف مع المشهد المتطور للذكاء الاصطناعي وإعادة تعريف فهمنا لذكاء التعلم الآلي. على الرغم من أن مصطلح "تدريب الذكاء الاصطناعي" قد يبدو غامضًا، يمكن تصنيفه إلى ثلاثة مجالات رئيسية:
1. السلامة: التعلم لاستخدام الذكاء الاصطناعي بمسؤولية وتجنب أساليب التصيد الجديدة المحسنة بالذكاء الاصطناعي.
2. المعرفة: فهم ما يمكن أن يفعله الذكاء الاصطناعي، وما يمكن توقعه منه، والمخاطر المحتملة.
3. الاستعداد: إتقان الاستخدام الماهر والفعال لأدوات الذكاء الاصطناعي لتعزيز جودة العمل.
تدريب سلامة الذكاء الاصطناعي يحمي فريقك تمامًا كما تحمي وسادات الركبة والكوع للدراجين الجدد؛ يمكن أن تمنع بعض الخدوش لكنها لن تعطيهم العدة لمواجهة السيناريوهات الأكثر تحديًا. على العكس، فإن تدريب استعداد الذكاء الاصطناعي يمكّن فريقك من تحقيق أقصى استفادة من الذكاء الاصطناعي والتعلم الآلي.
كلما زادت الفرص التي تقدمها لقوة عملك للتفاعل بأمان مع أدوات الذكاء الاصطناعي المولدة، زادت قدرتهم على التعرف على ما يعمل وما لا يعمل.
بينما يمكننا فقط التكهن بالقدرات التي ستظهر في العام المقبل، فإن القدرة على ربطها بإطار محدد لمستويات الاستدلال ستعد فريقك بشكل أفضل للنجاح.
اعرف متى تقول "لا أعلم"، ومتى تطلب المساعدة، والأهم من ذلك، متى تكون المشكلة خارج نطاق أداة الذكاء الاصطناعي المعينة.