أدخل كلمات البحث واضغط على إدخال.

"ميتا" تكشف عن نسخة للذكاء الاصطناعي أكثر حذراً من "تشات جي بي تي"

أرشيف

كشفت شركة "ميتا"، عن نسختها الخاصة من الذكاء الاصطناعي المستخدم في تطبيقات، مثل "تشات جي بي تي"، مؤكدة أنها ستتيح للباحثين إيجاد حلول للمخاطر المحتملة لهذه التكنولوجيا.

ووفقا لموقع "يورو نيوز"، وصفت ميتا برنامج الذكاء الاصطناعي الخاص بها، والمسمى (لاما) (LLaMA)، بأنه نموذج "أصغر وأفضل أداءً"، صُمم "لمساعدة الباحثين على تطوير عملهم"، في ما يمكن اعتباره انتقاداً مبطّناً لقرار مايكروسوفت بإصدار التكنولوجيا على نطاق واسع، مع الاحتفاظ برمز البرمجة سرّياً.

وأشار الموقع في تقرير له أن برمجية "تشات جي بي تي" المدعومة من مايكروسوفت، أثارت ضجة كبيرة في العالم بفعل قدرتها على إنشاء نصوص متقنة مثل المقالات أو القصائد، في ثوانٍ فقط باستخدام تقنية تُعرف باسم نماذج اللغات الكبيرة "ال ال ام" (LLM).

وتعد تكنولوجيا "ال ال ام" جزءاً من مجال يُعرف باسم الذكاء الاصطناعي التوليدي، والذي يتضمن أيضاً القدرة على التصرف بالصور أو التصميمات أو كود البرمجة بشكل فوري تقريباً بناءً على طلب بسيط.

وعمقت مايكروسوفت شراكتها مع شركة "أوبن إيه آي"، مبتكرة "تشات جي بي تي"، إذ أعلنت في وقت سابق من هذا الشهر أن التكنولوجيا ستُدمج في محرك بحث بينغ الخاص بها وكذلك متصفح إيدج، وفقا للموقع.

من جهتها أعلنت غوغل، التي ترى تهديداً مفاجئاً لهيمنة محرك البحث الخاص بها، أنها ستطلق قريباً لغتها الخاصة في مجال الذكاء الاصطناعي، وتحمل اسم بارد. لكنّ تقارير عن ثغرات شابت عمليات تواصل مع روبوت المحادثة الخاص بمحرك بينغ التابع لمايكروسوفت، بينها توجيه تهديدات وحديث عن رغبة في سرقة رمز نووي، انتشرت على نطاق واسع، ما أعطى انطباعاً بأن التكنولوجيا ليست جاهزة بعد.

وأشارت ميتا إلى إن هذه المشكلات التي أظهرها الذكاء الاصطناعي عبر روبوتات المحادثة، والتي شبّهها البعض بالهلوسات، يمكن علاجها بشكل أفضل إذا تمكّن الباحثون من تحسين الوصول إلى هذه التكنولوجيا باهظة الثمن.

وقالت الشركة إن البحث الشامل "لا يزال محدوداً بسبب الموارد المطلوبة لتدريب مثل هذه النماذج الكبيرة وتشغيلها". وأوضحت ميتا أن هذا الأمر يعيق الجهود "لتحسين قدرات" هذه التكنولوجيا، و"تخفيف المشكلات المعروفة، مثل التحيز" و"إمكانية توليد معلومات مضللة".

زمان الوصل - رصد
(92)    هل أعجبتك المقالة (99)
التعليقات (0)

تعليقات حول الموضوع

لإرسال تعليق,الرجاء تعبئة الحقول التالية
*يستخدم لمنع الارسال الآلي