فتح الباب أمام الذكاء الاصطناعي الآمن في الرعاية الصحية: كيف يستفيد مقدمو الخدمات من الفوائد الاستثنائية للنماذج واسعة النطاق

تلتزم مجموعة من المؤسسات الرائدة في مجال الرعاية الصحية، بما في ذلك OpenAI و13 شركة أخرى في مجال الذكاء الاصطناعي، بتطوير تكنولوجيا ذكاء اصطناعي آمنة وموثوقة تحت إدارة بايدن-هاريس. وقد تم الإعلان عن هذه الالتزامات الطوعية في 14 ديسمبر، وتهدف إلى استغلال الفوائد الكبيرة لنماذج الذكاء الاصطناعي في الرعاية الصحية مع حماية المعلومات الحساسة للمرضى وتقليل المخاطر المرتبطة.

وقع على هذه الالتزامات 28 مقدم خدمة رعاية صحية وجهة تمويل مثل CVS Health وStanford Health وBoston Children’s Hospital وUC San Diego Health وUC Davis Health وWellSpan Health. وتهدف تلك المؤسسات إلى معالجة الشكوك المتعلقة بمصداقية وأمان الذكاء الاصطناعي في البيئة الطبية، لا سيما في ظل تنامي تكنولوجيا الذكاء الاصطناعي التوليدي مثل ChatGPT.

كانت النقاشات السابقة حول الذكاء الاصطناعي في مجال الرعاية الصحية تركز أساسًا على إمكانيته في تشخيص الأمراض مبكرًا واكتشاف علاجات جديدة. ومع ذلك، كشفت دراسة حديثة أجرتها GE Healthcare أن 55% من الأطباء يرون أن الذكاء الاصطناعي غير مناسب حتى الآن للتطبيقات الطبية، حيث أعرب 58% منهم عن عدم ثقتهم في البيانات التي ينتجها الذكاء الاصطناعي. يرتفع هذا الشك إلى 67% بين الأطباء ذوي الخبرة التي تزيد عن 16 عامًا.

تهدف المؤسسات المشاركة إلى تغيير هذا التصور من خلال التزاماتها، مع التركيز على الحاجة إلى تنسيق الرعاية، وتحسين تجارب المرضى، وتقليل إجهاد الأطباء. كما جاء في وثيقة الالتزام الخاصة بهم: "يمثل الذكاء الاصطناعي فرصة فريدة لتعزيز نظام الرعاية الصحية، لا سيما في مجال الكشف المبكر والوقاية من السرطان."

لتعزيز ثقة المستخدمين، تعهدت هذه المؤسسات بمواءمة مشاريعها مع مبادئ الذكاء الاصطناعي العادلة، المناسبة، الصحيحة، الفعّالة، والآمنة (FAVES) التي وضعتها وزارة الصحة والخدمات الإنسانية الأميركية. سيساهم هذا التوافق في تقليل الانحيازات والمخاطر، وضمان فعالية الحلول في التطبيقات الواقعية.

تخطط الشركات لإقامة الثقة من خلال الشفافية وإطار شامل لإدارة المخاطر. ومن العناصر الرئيسية الشفافية حول ما إذا كان المستخدمون يتعاملون مع محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي ولم يخضع للمراجعة البشرية. سيتضمن إطار إدارة المخاطر تتبُّعًا شاملاً لتطبيقات الذكاء الاصطناعي واتخاذ تدابير استباقية لمعالجة الأضرار المحتملة في مختلف بيئات الرعاية الصحية.

"سنجري تدابير حوكمة، بما في ذلك الحفاظ على قائمة بالبرامج التي تستخدم نماذج متطورة وضمان وجود إطار قوي لإدارة المخاطر،" حسبما أفادت المؤسسات.

علاوة على ذلك، بينما تركز على التطبيقات الحالية، تلتزم المؤسسات بالبحث والتطوير المستمر في ابتكارات الذكاء الاصطناعي المتعلقة بالصحة، مع الحفاظ على الضوابط اللازمة. كما تعتزم استخدام بيئات غير إنتاجية وبيانات اختبار لتطوير تطبيقات جديدة، وضمان الامتثال للخصوصية، ومراقبة الأداء بشكل عادل ودقيق. بالإضافة إلى ذلك، ستعالج القضايا المتعلقة بالتكنولوجيا مفتوحة المصدر وتعمل على تدريب فرقها على تطوير تطبيقات النماذج المتطورة بشكل آمن وفعال.

Most people like

Find AI tools in YBX