نشرت شركة الذكاء الاصطناعي الناشئة OpenAI تدوينة تسعى إلى معالجة المخاوف من أن تقنياتها قد تتدخل في الانتخابات، إذ يستعد أكثر من ثلث العالم للتوجه إلى صناديق الاقتراع هذا العام.
وأوضحت الشركة خططها بخصوص مكافحة المعلومات الخطأ المتعلقة بالانتخابات في جميع أنحاء العالم، مع التركيز على تعزيز الشفافية بخصوص أصل المعلومات، وذلك في الوقت الذي تستعد فيه الولايات المتحدة للانتخابات الرئاسية لعام 2024.
وكان استخدام الذكاء الاصطناعي للتدخل في نزاهة الانتخابات مصدر قلق منذ أن أصدرت الشركة التي تدعمها مايكروسوفت روبوتها للدردشة بالذكاء الاصطناعي الذي يمكنه تقليد الكتابة البشرية بشكل مقنع ChatGPT، ونموذج توليد الصور بالذكاء الاصطناعي الذي يمكن استخدام تقنيته لإنشاء التزييف العميق DALL-E.
ويعد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من بين أولئك الذين يشعرون بالقلق، إذ قال خلال الإدلاء بشهادته أمام الكونجرس في شهر مايو الماضي إنه كان متوترًا بشأن قدرة الذكاء الاصطناعي التوليدي على تعريض نزاهة الانتخابات للخطر من خلال التضليل التفاعلي الفردي.
وقالت الشركة إنها تعمل في الولايات المتحدة مع الرابطة الوطنية لوزراء الخارجية، وهي منظمة تركز على تعزيز العمليات الديمقراطية، مثل الانتخابات.
مقالات ذات صلة
وأضافت أن ChatGPT يوجه المستخدمين إلى الموقع الرسمي عبر الإنترنت فيما يتعلق بالتصويت في الولايات المتحدة CanIVote.org عند طرح بعض الأسئلة المتعلقة بالانتخابات، مثل مكان التصويت أو كيفية التصويت.
ويبدأ مستخدمو ChatGPT برؤية الأخبار في الوقت الفعلي من جميع أنحاء العالم مع الإسناد والروابط.
وقالت الشركة أيضًا إنها تعمل على توضيح الأمور عند توليد الصور بالذكاء الاصطناعي عبر DALL-E، وتخطط لوضع أيقونة “cr” على الصور للإشارة إلى أنها مولدة بالذكاء الاصطناعي، وذلك باتباع بروتوكول أنشأه تحالف C2PA.
كما أنها تعمل على إيجاد طرق لتحديد المحتوى المولد باستخدام DALL-E حتى بعد تعديل الصور، وذلك لمساعدة الناخبين في تقييم موثوقية محتوى معين.
وشددت OpenAI في التدوينة على أن سياساتها تمنع استخدام تقنيتها بطرق حددتها على أنها مسيئة، مثل إنشاء روبوتات محادثة تتظاهر بأنها أشخاص حقيقيين، أو عدم تشجيع التصويت.
وأضافت أنها تمنع DALL-E من توليد صور لأشخاص حقيقيين، ويشمل ذلك المرشحين السياسيين.
نسخ الرابط تم نسخ الرابط