هل تقترب انفراجة الذكاء الاصطناعي في التعرف على المشاعر؟ تمويل هوم بقيمة 50 مليون دولار يشير إلى ذلك!

هايم AI تجمع 50 مليون دولار لتطوير الذكاء الاصطناعي العاطفي

أعلنت شركة هايم AI أمس أنها جمعت 50 مليون دولار في جولة تمويل من الفئة B بقيادة شركة EQT Ventures، بمشاركة من Union Square Ventures وNat Friedman وDaniel Gross وMetaplanet وNorthwell Holdings وComcast Ventures وLG Technology Ventures.

تأسست هايم AI على يد الرئيس التنفيذي ألان كوان، الباحث السابق في Google DeepMind، حيث تميزت بشغفها لبناء مساعد ذكاء اصطناعي يفهم ويستجيب للعواطف البشرية. ويشمل ذلك تطوير واجهة برمجة التطبيقات (API) التي تتيح للمؤسسات إنشاء دردشات وتطبيقات مدركة للعواطف.

ما يميز هايم AI؟

على عكس دردشات الذكاء الاصطناعي القائمة على النصوص مثل ChatGPT وClaude 3، تستخدم هايم AI الصوت كواجهة أساسية. حيث تستمع الشركة إلى نغمة المستخدمين ونبرة صوتهم وتوقفاتهم لتقييم حالتهم العاطفية.

تأسست الشركة في مدينة نيويورك، وسُميت على اسم الفيلسوف الاسكتلندي ديفيد هايم، وقد أصدرت عرضاً تجريبياً لجهازها "واجهة الصوت العاطفي (EVI)"، والتي تدعي أنها أول ذكاء اصطناعي محادثاتي يمتلك ذكاءً عاطفياً. يمكن للمستخدمين تجربة العرض هنا.

أهمية فهم العواطف في الذكاء الاصطناعي

إن إنشاء محادثات مدركة عاطفياً أمر معقد، حيث تطمح هايم AI لتجاوز التعرف على المشاعر الأساسية مثل السعادة أو الحزن. بدلاً من ذلك، تهدف إلى التعرف على أكثر من 50 عاطفة دقيقة لدى المستخدمين، تشمل:

- الإعجاب

- الغضب

- القلق

- الملل

- الفرح

- الحب

- الحزن

تدور فكرة هايم AI حول أن الفهم الدقيق للعواطف يمكن أن يعزز تجربة المستخدمين — من دعم العملاء إلى تبادل الأفكار التعاونية. كما يشير كوان، فإن الذكاء العاطفي ضروري لتمكين واجهات الذكاء الاصطناعي من تفسير نوايا المستخدمين بفاعلية. أظهرت الدراسات أن إشارات الصوت تقدم رؤى أعمق حول التفضيلات مقارنةً باللغة فقط، مما يجعل الذكاء الاصطناعي الصوتي أكثر فعالية في فهم احتياجات المستخدمين.

كيف تكتشف EVI العواطف

تقوم EVI الخاصة بهايم AI بتحديد إشارات العواطف من خلال تحليل تعديلات الصوت استناداً إلى بيانات تدريب واسعة من مئات الآلاف من المشاركين من ثقافات متعددة. تدعم التكنولوجيا أبحاث علمية نشرها كوان وزملاؤه، تتضمن بيانات تجريبية تكشف كيف يتم التعبير عن العواطف من خلال التعبيرات الصوتية والوجهية.

وفقًا لكوان، ساعدت بيانات التدريب أيضًا في تطوير نموذج موسيقى الكلام، الذي يفسر نغمة وكلمات وإيقاع الحديث، مما يمكّن الذكاء الاصطناعي من التعرف على 48 بعدًا عاطفيًا متميزًا. يمكن للمستخدمين استكشاف عرض تفاعلي لنموذج موسيقى الكلام على موقع هايم.

واجهات برمجة التطبيقات للمطورين

تقدم هايم AI واجهة برمجة التطبيقات "API لقياس التعبير" التي تتيح للشركات دمج الذكاء العاطفي في تطبيقاتها، بما في ذلك التحليل الفوري للتعبيرات الوجهية والانفجارات الصوتية واللغة العاطفية. كما توفر هايم "API للنماذج المخصصة" للمنظمات لتدريب نماذجها المخصصة لمختلف السياقات، بدءًا من تفاعلات العملاء وصولاً إلى تطبيقات الأمن.

الأخلاقيات والمسؤولية الاجتماعية

تلتزم هايم AI بالإرشادات الأخلاقية من خلال منظمتها غير الربحية، The Hume Initiative. تجمع هذه المنظمة علماء الاجتماع والأخلاقيين وباحثي الذكاء الاصطناعي لوضع مبادئ الاستخدام المسؤول للذكاء الاصطناعي العاطفي. من بين الإرشادات، الالتزام بتجنب التطبيقات التلاعبية لتقنيات كشف العواطف.

الاستقبال الإيجابي وآفاق المستقبل

بعد إعلان التمويل والعرض التجريبي، كان الاستقبال إيجابيًا للغاية، حيث أثنى قادة الصناعة على EVI الخاصة بهايم لتركيزها على التفاعل الطبيعي. مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، قد تعمل هايم AI على تحديد معايير جديدة للتفاعل الإنساني والاستجابة العاطفية في المساعدات الصوتية، وهو مجال قد تحتاج فيه المنافسون مثل Amazon Alexa إلى الابتكار أكثر.

عند سؤاله عن شراكات محتملة مع شركات التكنولوجيا الكبرى، كان كوان غير ملتزم، قائلاً فقط، "لا تعليق".

تقف هايم AI في طليعة تكنولوجيا الذكاء الاصطناعي العاطفي، واعدة بإثراء تجارب المستخدمين عبر مختلف القطاعات.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles