فتح تطبيقات الويب باستخدام الذكاء الاصطناعي على الأجهزة: رؤى من مهندس سابق في جوجل حول كيفية تحقيق ذلك

للاستفادة من نماذج اللغة الكبيرة (LLMs)، تعتمد التطبيقات الويب عادةً على التواصل مع خوادم السحابة. ومع ذلك، قدم المهندس السابق في جوجل، جاكوب لي، طريقة مبتكرة لتشغيل الذكاء الاصطناعي محليًا، مما قد يقلل بشكل كبير من التكاليف ومخاوف الخصوصية المرتبطة بالحلول المستندة إلى السحابة. بعد أن شارك في تطوير Google Photos، يساهم لي الآن في إطار العمل الشهير LangChain ويشارك رؤى حول نهجه من خلال منشور على مدونة Ollama.

في منشوره، يوضح لي كيف يمكن للمطورين إنشاء تطبيقات ويب قادرة على التفاعل مع الوثائق مباشرةً من جهاز المستخدم، مما يلغي الحاجة إلى اتصالات سحابية مكلفة. باستخدام مجموعة من الأدوات مفتوحة المصدر، صمم تطبيقًا ويب يمكّن المستخدمين من التفاعل مع التقارير أو الأوراق بلغة طبيعية. يمكن للمستخدمين المهتمين الوصول بسهولة إلى عرض تجريبي عبر تثبيت تطبيق Ollama المكتبي، وتشغيل بعض الأوامر للإعداد المحلي، ثم الانخراط في محادثة مع روبوت دردشة حول أي وثيقة تم تحميلها.

للعرض التجريبي، سيحتاج المستخدمون إلى تشغيل مثال Mistral محليًا من خلال Ollama، وتفاصيل التعليمات الشاملة للإعداد موجودة في مدونة لي.

كيف تعمل العملية

تتضمن الآلية الأساسية لتنفيذ لي عملية مبسطة من خمس خطوات:

1. تحميل البيانات: يقوم المستخدمون بتحميل الوثائق، مثل ملفات PDF، إلى النظام. يستخدم لي LangChain لتقسيم هذه الوثائق إلى أجزاء قابلة للإدارة ويولد تجسيدات متجهية لكل جزء باستخدام Transformers.js. يتم تنظيم هذه الأجزاء بعد ذلك في قاعدة بيانات Voy vector store.

2. الاسترجاع: عند إدخال المستخدم لسؤال، يبحث النظام في مخزن المتجهات للعثور على الأجزاء الأكثر صلة بالاستعلام.

3. التوليد: يتم إرسال السؤال والأجزاء المحددة إلى الذكاء الاصطناعي Ollama الذي يعمل محليًا، والذي يستخدم نموذج Mistral لتوليد استجابة بناءً على المعلومات المستردة.

4. إعادة الصياغة: بالنسبة للاستفسارات اللاحقة، يعيد النظام صياغة الأسئلة قبل تكرار خطوات الاسترجاع والتوليد.

5. استغلال الذكاء الاصطناعي المحلي: يوفر أداة Ollama الوصول إلى نموذج Mistral الذي يعمل محليًا من تطبيق الويب، مما يسمح بتكامل سلس لوظيفة التوليد.

ببساطة، طور لي تطبيق ويب قادر على مناقشة الوثائق دون اتصال، مدعوماً بالكامل ببرمجيات ذكية تعمل على الكمبيوتر الشخصي للمستخدم.

مزايا للشركات والمطورين

توفر هذه المقاربة التي تركز على الاستخدام المحلي فوائد كبيرة للشركات ومطوري المؤسسات. من خلال التحول بعيدًا عن الاعتماد على السحابة إلى النشر المحلي، يمكن للمنظمات تقليل تكاليف التشغيل، خاصةً عند تطوير الأعمال. علاوة على ذلك، تسمح هذه الطريقة بتخصيص عالٍ، حيث يمكن للمستخدمين إنشاء نماذج دقيقة باستخدام بيانات داخلية ملكية.

تسهم معالجة البيانات محليًا أيضًا في حل القضايا المتعلقة بالخصوصية، مما يضمن بقاء المعلومات الحساسة داخل المقر، ويخفف من مخاطر الانتهاكات المحتملة. يتوقع لي أن تصبح هذه الأنظمة أكثر انتشارًا مع تصميم نماذج جديدة لتكون أصغر وأكثر كفاءة، مما يعزز توافقها مع الأجهزة المحلية.

لتسهيل الوصول الأوسع، يتصور لي واجهة برمجة تطبيقات متصفح تسمح لتطبيقات الويب بطلب الوصول إلى LLM يعمل محليًا، على غرار إضافة المتصفح Chrome. قال: "أنا متحمس للغاية لمستقبل تطبيقات الويب المدعومة بـ LLM وكيف يمكن لتقنيات مثل Ollama وLangChain تسهيل تفاعلات جديدة رائعة للمستخدمين".

يتماشى مفهوم لي مع الاتجاه المتزايد في تطوير الويب المدعوم بالذكاء الاصطناعي. تتيح منصات مثل MetaGPT للمستخدمين بناء تطبيقات باستخدام أوامر اللغة الطبيعية، بينما تولد أدوات مثل CodeWP.ai HTML لمواقع الويب. علاوة على ذلك، تسهل البيئات التطويرية مثل GitHub Copilot وReplit AI عمليات البرمجة، وتقدم مبادرات مثل مشروع Google IDX موارد ذكاء اصطناعي للمطورين لاستكشافها.

باختصار، إن النهج المبتكر الذي اتبعه جاكوب لي في دمج LLM محليًا لا يمهد الطريق فقط لتطبيقات فعالة من حيث التكلفة وواعية للخصوصية، ولكنه أيضًا يحول كيفية تفاعل المستخدمين مع التكنولوجيا في مشهد رقمي يزداد تأثراً بإمكانات الذكاء الاصطناعي المتقدمة.

Most people like

Find AI tools in YBX