تقنية

تقدم OpenAI نموذج الاستدلال o1 الخاص بها إلى واجهة برمجة التطبيقات (API) الخاصة بها – لبعض المطورين

تعمل OpenAI على جلب o1، نموذج الذكاء الاصطناعي “المنطقي” الخاص بها، إلى واجهة برمجة التطبيقات (API) الخاصة بها – ولكن فقط لمطورين معينين للبدء.

وقالت الشركة إنه بدءًا من اليوم، ستبدأ خدمة o1 في طرحها للمطورين في فئة الاستخدام “المستوى 5” في OpenAI. للتأهل للمستوى 5، يجب على المطورين إنفاق 1000 دولار على الأقل مع OpenAI وأن يكون لديهم حساب مضى عليه أكثر من 30 يومًا منذ أول دفعة ناجحة لهم.

يحل o1 محل نموذج معاينة o1 الذي كان متاحًا بالفعل في واجهة برمجة التطبيقات.

على عكس معظم أنظمة الذكاء الاصطناعي، فإن ما يسمى بنماذج الاستدلال مثل o1 تقوم بالتحقق من الحقائق بشكل فعال، مما يساعدها على تجنب بعض المخاطر التي عادة ما تعوق النماذج. وكعيب، غالبًا ما يستغرقون وقتًا أطول للتوصل إلى الحلول.

كما أنها باهظة الثمن للغاية، ويرجع ذلك جزئيًا إلى أنها تتطلب الكثير من موارد الحوسبة لتشغيلها. يتقاضى OpenAI 15 دولارًا أمريكيًا مقابل كل 750000 كلمة تقريبًا o1 تحليلًا و60 دولارًا أمريكيًا لكل 750000 كلمة تقريبًا ينشئها النموذج. وهذا يعادل ما بين 3x و4x تكلفة أحدث نموذج “غير منطقي” من OpenAI، وهو GPT-4o.

يعد O1 في OpenAI API أكثر قابلية للتخصيص بكثير من معاينة o1، وذلك بفضل الميزات الجديدة مثل استدعاء الوظائف (الذي يسمح للنموذج بالاتصال بالبيانات الخارجية)، ورسائل المطورين (التي تتيح للمطورين إرشاد النموذج على النغمة والأسلوب)، و تحليل الصورة. بالإضافة إلى المخرجات المنظمة، يحتوي o1 أيضًا على معلمة API، “reasoning_effort”، التي تتيح التحكم في المدة التي “يفكر فيها” النموذج قبل الاستجابة للاستعلام.

قالت OpenAI إن إصدار o1 في واجهة برمجة التطبيقات – وقريبًا منصة الدردشة الآلية الخاصة بالشركة، ChatGPT – هو إصدار “جديد بعد التدريب” من o1. بالمقارنة مع نموذج o1 الذي تم إصداره في ChatGPT قبل أسبوعين، فإن هذا النموذج، “o1-2025-12-17″، يحسن “مجالات سلوك النموذج بناءً على التعليقات”، كما قال OpenAI بشكل غامض.

وكتبت الشركة في منشور مدونة مقدم إلى TechCrunch: “نحن نعمل على طرح الوصول بشكل تدريجي بينما نعمل على توسيع الوصول إلى مستويات الاستخدام الإضافية وزيادة حدود المعدل”.

في أخبار أخرى متعلقة بالتطوير اليوم، أعلنت OpenAI عن إصدارات جديدة من نماذجها المصغرة GPT-4o وGPT-4o كجزء من Realtime API، وهي واجهة برمجة تطبيقات OpenAI لبناء التطبيقات ذات زمن الوصول المنخفض والاستجابات الصوتية المولدة بالذكاء الاصطناعي. النماذج الجديدة (“gpt-4o-realtime-preview-2025-12-17″ و”gpt-4o-mini-realtime-preview-2025-12-17”)، التي تتميز بتحسين كفاءة وموثوقية البيانات، هي أيضًا أرخص وقال OpenAI للاستخدام.

عند الحديث عن Realtime API (لا أقصد التورية)، فهي تظل في مرحلة تجريبية، ولكنها اكتسبت العديد من الإمكانات الجديدة، مثل الاستجابات المتزامنة خارج النطاق، والتي تتيح تشغيل مهام الخلفية مثل الإشراف على المحتوى دون مقاطعة التفاعلات. تدعم واجهة برمجة التطبيقات (API) الآن أيضًا WebRTC، وهو المعيار المفتوح لإنشاء تطبيقات صوتية في الوقت الفعلي للعملاء المعتمدين على المتصفح، والهواتف الذكية، وأجهزة إنترنت الأشياء.

في ما ليس من قبيل الصدفة بالتأكيد، قامت شركة OpenAI بتعيين الخالق من WebRTC، جاستن أوبرتي، في أوائل ديسمبر.

“تم تصميم تكامل WebRTC الخاص بنا لتمكين التفاعلات السلسة والمستجيبة في ظروف العالم الحقيقي، حتى مع جودة الشبكة المتغيرة”، كتب OpenAI في المدونة. “إنه يتعامل مع تشفير الصوت والبث وقمع الضوضاء والتحكم في الازدحام.”

في آخر تحديث لها يوم الثلاثاء، جلبت OpenAI ضبطًا دقيقًا للتفضيلات إلى واجهة برمجة التطبيقات (API) الخاصة بها؛ يقارن ضبط التفضيلات أزواجًا من الاستجابات النموذجية “لتعليم” نموذج للتمييز بين الاستجابات المفضلة و”غير المفضلة”. وأطلقت الشركة إصدارًا تجريبيًا لمجموعات مطوري البرامج الرسمية بلغتي البرمجة Go وJava.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى