تكنولوجيا

5 مزايا يتفوق بها نموذج GPT-4o الجديـد على نموذج GPT-4 سام تكنولوجيا_

حصل روبوت (ChatGPT) على ترقية هائلة مع الاعلان نموذج (GPT-4o) الجديـد، الذى يجعل طريقة التفاعل بين الإنسان والحاسوب أكثر طبيعة بفضل قدراته المتطورة فى التعامل مع النصوص المكتوبة والأوامر الصوتية والصور ومقاطع الفيـديو، وكذلك فهم وإدراك ما تراه كاميرا الهواتف الذكية مباشرة، مثل: نبرة الأصوات، وتحليل ملامح الوجوه وفهم المشاعر مـن خلالها.

يرصد (GPT-4o) الجديـد القدرات نفسها التى يقدمها نموذج (GPT-4)، ولكنه يأتي مع العديد مـن التحسينات والمزايا التى تجعله يتفوق على سابقه.

إليك 5 مزايا يتفوق بها نموذج GPT-4o على نموذج GPT-4:

1- ChatGPT-4o مجاني للجميع:

5 مزايا يتفوق بها نموذج GPT-4o الجديد على نموذج GPT-4

يشكل نموذج (GPT-4o) خطوة عملية نحو تعزيز إمكانية الوصول الي القدرات المتطورة للذكاء الاصطناعي التوليدي خاصة بالنسبة للمستخدمين العاديين. ففي السابق، كان الوصول الي GPT-4 الأكثر ذكاءً مقيدًا بالاشتراك فى إصدار (ChatGPT Plus) بمبلغ قدره 20 دولارًا شهريًا. اما الان، بفضل التحسينات فى كفاءة المعالجة، تُتيح OpenAI استخدام GPT-4o مجانًا لجميع المستخدمين.

وبالإضافة الي التحديثات الأصلية التى يقدمها نموذج (GPT-4o)، أعلنت الشركة إتاحة عَدَّدَ كثير مـن المزايا لجميع المستخدمين مجانًا، ومنها: 

  • تصفح الويب عبر ChatGPT مجانًا.
  • تحليل البيانات (Data Analysis)، بالإضافة الي إنشاء رسوم بيانية (Charts).
  • التعامل مع الصور.
  • رفـع الملفات والبدء بعمليات التلخيص، والكتابة والتحليل.
  • الوصول الي متجر الروبوتات البرمجية (GPTs Store)، وهي مزية كانـت متاحة لاحقًا لمستخدمي الإصدار المدفوع (ChatGPT Plus) فقط.
  • استخدام مزية (الذاكرة) Memory، التى تساعد الروبوت فى الاحتفاظ ببعض التفاصيل والمعلومات التى ترغب فى استخدامها بينما بعد.

ولكن كل ذلك مـن المزايا لا يعني المساواة مع المشتركين فى إصدار (ChatGPT Plus)، الذين سيحصلون على مزايا إضافية تشمل: زيادة عَدَّدَ المطالبات اليومية بمقدار خمسة أضعاف، وإمكانية الوصول المبكر الي ميزات الصوت والرؤية المتطورة، التى ستُحدث ثورة فى طريقة التفاعل مع الذكاء الاصطناعي.

2- تحسينات كبيرة فى التفاعل مع الصوت:

يحتوي نموذج (GPT-4) على وضع صوتي، ولكنه محدود للغاية. حيـث يستطيع فقط الاستجابة لاستفسار واحد فى كل مرة، مما يجعله يشبه المساعدات الصوتية، مثل: أليكسا مـن أمازون أو مساعد جوجل أو سيري مـن آبل. لكن مع GPT-4o، تغيرت الامور بطريقة جذرية، كَمَا يظهر فى الفيـديو القادم:

أذهل نموذج (GPT-4o) الجميع فى العرض الذى قدمته الشركة بقدرته على ابتكار قصص مبدعة لحظيًا مثل (قصة ما قبل النوم عَنْ الروبوتات والحب)، ويمكنه أيضًا الاستجابة للمقاطعات التى تطلب تعديلات سريعة اثناء سرد القصة بذكاء، الامر الذى جعل التفاعل الصوتي مع ChatGPT أصبح فى منتهى السلاسة.

بالإضافة الي ذلك، نموذج GPT-4o أصبح لديه القدرة على تغيير نبرة صوته ليتناسب مع القصة، وإضافة لمسات درامية، وحتى إنهاء القصة بأغنية لإسعاد المستمعين.

ولكن اهم ما يمـيز GPT-4o هو قدرته على الاحتفاظ بالموضوع الرئيسي للمحادثة اثناء التفاعل مع المُستخدم، وهو ما لا تستطيع افضل المساعدات الذكية حاليًا القيام به.

3- نموذج GPT-4o يتمتع بقدرات رؤية مذهلة:

بعد العرض المذهل لقدرات الصوت، عُرضت إمكانيات نموذج (GPT-4o) فى مجال الرؤية، التى فاقت التوقعات، إذ استطاع النموذج مـن حل معادلة خطية مكتوبة على ورقة، وذلك مـن اثناء إستقبال صورة لها بكاميرا الهاتف لحظيًا، والأهم مـن ذلك أنه استطاع مـن تقديم المساعدة للمستخدم دون الإفصاح عَنْ الإجابة مباشرة، كَمَا طلب منه المستخدم، مما يُعزز ذكاءه وتفاعله.

كَمَا تجاوزت قدرات GPT-4o التعامل مع النصوص، حيـث استطاع مـن تحديد مشاعر السعادة والإثارة على وجه شخص فى صورة شخصية جديدة، كَمَا فى الفيـديو القادم:

تفتح قدرات الرؤية المتطورة لنموذج GPT-4o آفاقًا جديدة لتطبيقات متنوعة، مثل: شرح الكود البرمجي بمجرد توجيه كاميرا الهاتف إليه، أو تلخيص النصوص الأجنبية بمجرد رؤيتها فى صورة.

فى الوقت الحالي، يبدو ان قدرات الرؤية المحسنة تستهدف الصور الثابتة، ومع ذلك، فى المستقبل القريب، تؤمن OpenAI ان GPT-4o سيتطور فى المستقبل القريب ليتمكن مـن التعامل مع مقاطع الفيـديو، مثل مشاهده حدث رياضى وشرح القواعد، مما يُتيح تطبيقات أكثر ثورية.

4- أداء اسرع كثيرًا:

يُظهر نموذج (GPT-4) بعض التأخير فى معالجة المطالبات المعقدة، على الرغم مـن سرعته المُذهلة. لكن مع نموذج GPT-4o، ستجد تحسنًا هائلًا فى السرعة، إذ يمكنه توليد إجابته النصية المكونة مـن 488 كلمة  فى أقل مـن 12 ثانية، بينما تتطلب استجابة مماثلة مـن (GPT-4) ما يقرب مـن دقيقة.

كَمَا يتميز نموذج GPT-4o الجديـد بسرعة استجابة استثنائية، إذ يمكنه الاستجابة للمدخلات الصوتية بمتوسط قدره 320 ميلّي/ الثانية، وهو ما يُقارب زمن استجابة الإنسان فى المحادثة. بينما يستغرق (GPT-4) فى المتوسط 5.4 ثانية، ويعود ذلك الي ان وضع الصوت كان يعمل كسلسلة مـن ثلاثة نماذج منفصلة:

  • نموذج بسيط يحول الصوت الي نص.
  • يعالج نموذج GPT-3.5 أو GPT-4 النص ويُخرج نصًا آخر.
  • نموذج بسيط ثالث يحول النص مرة أخرى الي صوت.

تُؤدي هذه العملية الي خسارة المزيد مـن البيانات، إذ لا يستطيع نموذج (GPT-4)، ملاحظة نبرة الصوت أو وجود عَدَّدَ مـن المتحدثين أو الضوضاء الخلفية بنحو مباشر. كَمَا لا يستطيع إخراج ضحك أو غناء أو التعبير عَنْ المشاعر.

5- توفر تطبيق سطح المكتب لنظام التشغيل macOS وويندوز قريبًا:

قد يكون إصدار الويب مـن (ChatGPT) كافيًا لمعظم الأشخاص، ولكن بالنسبة لأولئك الذين يفضلون تطبيقات سطح المكتب، بدأت شركة OpenAI بإطلاق تطبيق جديد مـن روبوت ChatGPT للحواسيب التى تعمل بنظام macOS.

وسيتيح التطبيق إمكانية إجراء محادثات صوتية مباشرة مع الروبوت مـن الحاسوب سواء فى الوضع الصوتي التقليدي المتاح بالفعل، أو باستخدام إمكانيات الصوت والفيديو فى نموذج GPT-4o الجديـد.

وبالنسبة لمستخدمي نظام التشغيل ويندوز أكدت شركة OpenAI ان تطبيق ويندوز قيد التطوير حاليًا، ومن المنتظر إصداره بحلول نهاية عَامٌ 2024.

وقد يكون التأخير ناتجًا عَنْ سعي مايكروسوفت الي توجيه مستخدمي نظام (ويندوز 11) الي المساعد (Copilot) المدعوم مـن ChatGPT.



مقالات ذات صلة

زر الذهاب إلى الأعلى