«OpenAI» تطوّر أدوات للكشف عن صور الذكاء الاصطناعي
لتتبع المحتوى وإثبات إذا كان مولّداً من خلال نموذج توليد الصور
أضافت «OpenAI» أداة جديدة لاكتشاف إذا كانت الصورة موّلدة من خلال نموذج توليد الصور DALL-E، بالإضافة إلى طرق جديدة لوضع العلامات المائية الواضحة عبر المحتوى الذي يولّده النموذج.
وفي تدوينة، أعلنت شركة الذكاء الاصطناعي الناشئة أنها بدأت بتطوير طرق جديدة لتتبع المحتوى وإثبات إذا كان مولدًا بالذكاء الاصطناعي.
ويتضمن ذلك مصنفًا جديدًا للكشف عن الصور يستخدم الذكاء الاصطناعي لتحديد إذا كانت الصورة مولدة بالذكاء الاصطناعي، بالإضافة إلى علامة مائية مقاومة للتلاعب يمكنها وضعها عبر محتوى، مثل الصوت، مع إشارات غير مرئية.
ويتنبأ المصنف باحتمالية توليد الصورة من خلال DALL-E 3. وتدعي «OpenAI» أن المصنف يعمل حتى لو تعرضت الصورة للاقتصاص أو الضغط أو تغيير التشبع.
وتستطيع الأداة اكتشاف إذا كانت الصور مولدة من خلال DALL-E 3 بدقة قدرها 98 في المئة، مع أن أدائها فيما يتعلق بمعرفة إذا كان المحتوى مولدًا من خلال نماذج توليد الصور الأخرى ليس جيدًا.
وأضافت «OpenAI» سابقًا بيانات اعتماد المحتوى إلى البيانات الوصفية للصورة من تحالف C2PA. وتعد بيانات اعتماد المحتوى علامات مائية تتضمن معلومات بخصوص من يملك الصورة وكيفية إنشائها.
وتعد «OpenAI» عضوًا في تحالف C2PA، إلى جانب شركات، مثل أدوبي ومايكروسوفت، وانضمت شركة الذكاء الاصطناعي الناشئة هذا الشهر إلى اللجنة التوجيهية لتحالف C2PA.
وبدأت «OpenAI» أيضًا بإضافة علامات مائية إلى المقاطع من منصة تحويل النص إلى كلام Voice Engine.
ولا تزال شركة الذكاء الاصطناعي الناشئة تحسن كل من مصنف الصور وإشارة العلامة المائية الصوتية.
وتقول «OpenAI» إنها تحتاج إلى الحصول على تعليقات من المستخدمين لاختبار فعاليتها. ويمكن للباحثين والمجموعات الصحفية غير الربحية اختبار مصنف اكتشاف الصور من خلال التقديم عبر منصة الوصول إلى أبحاث «OpenAI».
وتعمل «OpenAI» على اكتشاف المحتوى المولدة بالذكاء الاصطناعي منذ سنوات، مع أنها اضطرت في عام 2023 إلى إنهاء برنامج حاول تعرف النص المكتوب بالذكاء الاصطناعي لأن مصنف نص الذكاء الاصطناعي كان يتمتع دائمًا بدقة منخفضة.