أشارت شركة OpenAI إلى أن تقنيتها قادرة على الإشراف على المحتوى، وهي مهمة قد تساعد الشركات في أن تصبح أكثر كفاءة، مع تسليط الضوء على حالة استخدام محتملة لأدوات الذكاء الاصطناعي التي لم تحقق حتى الآن إيرادات ضخمة للعديد من الشركات.
وأوضحت الشركة الناشئة أن تقنيتها الأحدث، GPT-4 المشغلة لروبوت الدردشة ChatGPT، قابلة للاستخدام من أجل تطوير سياسات بشأن المحتوى المناسب ويمكنها بسرعة أكبر تصنيف المشاركات أو اتخاذ قرارات بشأنها.
وتختبر الشركة في الوقت الحالي هذه التكنولوجيا، ودعت العملاء لتجربتها أيضًا، موضحة أن أدواتها قد تساعد الشركات على أداء ستة أشهر من العمل في يوم واحد أو نحو ذلك، كما أن GPT-4 قادرة أيضًا على تفسير القواعد والفروق الدقيقة في الوثائق الطويلة لسياسة المحتوى والتكيف فورًا مع تحديثات السياسة، مما يؤدي إلى تصنيف أكثر اتساقًا.
وقالت أندريا فالون، العاملة في مجال السياسات ضمن شركة OpenAI: “يتطلب الإشراف على المحتوى جهدًا دقيقًا وحساسية وفهمًا عميقًا للسياق، بالإضافة إلى التكيف السريع مع حالات الاستخدام الجديدة، مما يجعله مضيعة للوقت وصعبًا، ووجدنا أن GPT-4 يلعب دورًا فعالًا في الإشراف على المحتوى، وهو دور غالبًا ما يقع على عاتق جيوش صغيرة من العاملين من البشر، ويمكن أن تكون هذه الوظائف في بعض الأحيان مؤلمة للأشخاص الذين يؤدونها.
وتستخدم العديد من الشركات الكبرى، مثل ميتا، الذكاء الاصطناعي للمساعدة في الإشراف جنبًا إلى جنب مع الموظفين. ويمثل استخدام التكنولوجيا لتفسير الفروق الدقيقة في الكتابة البشرية تحديًا، وشددت OpenAI على أن العملية لا ينبغي أن تكون مؤتمتة بالكامل.
موضوعات ذات صلة بما تقرأ الآن:
وقالت فالون: “يلعب الإشراف على المحتوى دورًا مهمًا في الحفاظ على سلامة المنصات الرقمية، وغالبًا ما تكون صياغة سياسات الإشراف على المحتوى ووضع العلامات على المحتوى مهمة طويلة، وتساعد أدوات OpenA في تقليل الفجوة بين الحاجة والحل”.
وأشارت فالون إلى أن العاملين البشريين في الشركة قادرين من الناحية المثالية على استخدام التكنولوجيا لتقليل أعباء العمل والتركيز بشكل أكبر على القرارات الأكثر تعقيدًا المتعلقة بالحالات الأكثر خطورة بشأن انتهاكات المحتوى المحتملة وكيفية تحسين السياسات.