كشفت الشركة الصينية التي تمتلك منصة تيك توك عن نموذج ذكاء اصطناعي جديد يسمى Omnihman-1، حوالي 10 أضعاف التحسينات في الفيديو الذي ولدت بالذكاء الاصطناعي مقارنة بالنموذج الحالي.
على عكس الطرق التقليدية للاعتماد على أوامر النص لإنشاء مقاطع فيديو، يستخدم Omnihman-1 الصور كمدخلات رئيسية، حيث يمكنها معالجة الصور الشخصية ورسومات الكاريكاتير. يمكن للمستخدمين بعد ذلك إضافة مقاطع صوتية أو مرئية لإنشاء مقاطع فيديو تحاكي الحركات الواقعية للأحرف في الصورة.
وفقًا للشركة، يتميز Omnihman-1 بمستوى واقعي لا يصدق يمكن أن يعقد الاختلافات بين مقاطع الفيديو الحقيقية ومقاطع الفيديو التي أنشأتها الذكاء الاصطناعي.
وقد يكون هذا النموذج خطوة كبيرة نحو تحقيق أحد الأهداف الرئيسية للشركات المتنافسة في هذا المجال، وهو تجاوز تأثير “الوادي الغريب”، حتى تصبح الشخصيات المولّدة بالذكاء الاصطناعي أكثر إقناعًا من الناحية البصرية.
وفي ظل الإمكانات الثورية لنموذج OmniHuman-1، تزداد المخاوف من التحسينات الكبيرة لمقاطع الفيديو المولّدة بالذكاء الاصطناعي، وإمكانية توظيفها بنحو غير مشروع. لذا، تبقى مسؤولية الشركات المطوّرة إيجاد آليات موثوقة لكشف المحتوى المُنتج بالذكاء الاصطناعي، وتمييزه بوضوح لمنع الخداع والاحتيال.
وفقًا لرويترز، فإن إطلاق Omnihman-1 هو سباق متسارع في قطاع الذكاء الاصطناعي، بما في ذلك خطط الطعم للاستثمارات التي تصل إلى 12 مليار دولار في عام 2025.
وفي الوقت نفسه، يعمل Openai مع نموذج Sora، بينما تقوم Google بتطوير نموذج VEO. نماذج VEO هي أيضًا نماذج لإنشاء مقاطع فيديو باستخدام الذكاء الاصطناعي، وتعتبر فرصة رائعة.


