مايكروسوفت: لماذا لا يمكن للذكاء الاصطناعي استبدال الخبرة البشرية في مكان العمل

قامت Microsoft بتحديث شروط الخدمة الخاصة بها، حيث ستدخل هذه التحديثات حيز التنفيذ في نهاية سبتمبر. وتؤكد الشركة أن خدمات الذكاء الاصطناعي Copilot لا يجب أن تحل محل المشورة المهنية البشرية. يتزايد استخدام الوكلاء المدعومين بالذكاء الاصطناعي عبر مختلف الصناعات، حيث يعملون كدردشة في خدمة العملاء، وتطبيقات الصحة والعافية، وحتى توفير معلومات قانونية. ومع ذلك، تعيد Microsoft التأكيد لمستخدميها أن ردود أفعال الدردشة لا ينبغي اعتبارها توجيهات نهائية. تنص اتفاقية الخدمة المحدثة بوضوح: "خدمات الذكاء الاصطناعي ليست مصممة ولا مقصودة أو تستخدم كبديل للمشورة المهنية."

تسلط الشركة الضوء على الروبوتات الصحية كمثال محدد، موضحة أن هذه الروبوتات "ليست مصممة أو مقصودة كبديل للمشورة الطبية المهنية أو لتشخيص أو علاج أو تخفيف أو الوقاية من الأمراض أو الحالات الأخرى." كما تؤكد الشروط: "Microsoft ليست مسؤولة عن أي قرارات تتخذها بناءً على المعلومات المستلمة من الروبوتات الصحية."

علاوة على ذلك، تحدد اتفاقية الخدمة المعدلة قيودًا إضافية على استخدام الذكاء الاصطناعي، بما في ذلك حظر استخراج البيانات عبر خدمات الذكاء الاصطناعي. وتوضح الاتفاقية: "ما لم يُسمح بذلك بوضوح، لا يجوز لك استخدام تقنيات استخراج البيانات من الويب أو الحصاد أو أي طرق استخلاص أخرى." كما تمنع Microsoft محاولات الهندسة العكسية التي تهدف إلى كشف أوزان النموذج أو استخدام بياناته "لإنشاء أو تدريب أو تحسين (بشكل مباشر أو غير مباشر) أي خدمة ذكاء اصطناعي أخرى." وتحدد الشروط بوضوح: "لا يجوز لك استخدام خدمات الذكاء الاصطناعي لاكتشاف أي مكونات أساسية للنماذج أو الخوارزميات أو الأنظمة." ويشمل ذلك المحاولات لتحديد وإزالة أوزان النموذج أو استخراج أجزاء من خدمات الذكاء الاصطناعي من الأجهزة.

تعبّر Microsoft باستمرار عن مخاوفها بشأن الاستخدام غير السليم للذكاء الاصطناعي التوليدي. ومن خلال هذه الشروط المحدثة، تسعى الشركة إلى وضع تدابير قانونية وقائية مع استمرار زيادة شعبية منتجاتها في مجال الذكاء الاصطناعي.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles