الذكاء الاصطناعي والعمالة الخفية: كيف تستغل الشركات عمالة رخيصة؟
التكلفة البشرية للذكاء الاصطناعي: العمالة الخفية وحلول Web3
تعتمد منصات الذكاء الاصطناعي بشكل كبير على عمالة خفية وغير مرئية من الدول النامية، وتحديداً في أفريقيا وأمريكا اللاتينية وآسيا. يتقاضى هؤلاء العمال أجوراً زهيدة، تصل أحيانًا إلى أقل من 2 دولار في الساعة، مقابل مراجعة محتوى قد يكون صادمًا أو عنيفًا لتدريب أنظمة الأمان الخاصة بالذكاء الاصطناعي. لقد أثارت هذه الممارسات مخاوف عالمية واسعة، ودفعت إلى رفع دعاوى قضائية، مطالبة بإصلاحات أخلاقية حاسمة في صناعة الذكاء الاصطناعي. ومن أبرز الأمثلة على ذلك الدعوى القضائية المرفوعة ضد شركة ساما (Sama) وأوبن أيه آي (OpenAI) في كينيا، والتي كشفت عن ظروف عمل قاسية وتعرض عمال المحتوى لمواد مروعة أثرت على صحتهم النفسية (ذا فيرج، 2023؛ تايم، 2023).
الوجه الخفي للذكاء الاصطناعي: اعتماد على العمالة البشرية

يتجاوز قطاع الذكاء الاصطناعي قيمة 500 مليار دولار، ويُعيد تشكيل قطاعات متعددة من الخدمات المصرفية إلى الرعاية الصحية. ومع ذلك، تعتمد هذه التقنيات المتقدمة على جيوش من العمال البشريين الذين يقومون بمهام لا تستطيع أنظمة الذكاء الاصطناعي التعامل معها بشكل كامل، مثل تصنيف البيانات، وتصفية المحتوى الضار، وتصحيح أخطاء الآلة. وبدون هؤلاء العمال الأساسيين، قد تنهار الخوارزميات، مما يكشف مفارقة صارخة: فالذكاء الاصطناعي، على الرغم من تقدمه، قد يصبح حدودًا رقمية جديدة لسوء ممارسات العمل وشكلاً جديدًا من السلوكيات غير الأخلاقية. وإذا لم تتصرف الشركات والمبتكرون، فقد يتفكك وعد الذكاء الاصطناعي تحت وطأة تناقضاته الأخلاقية.
من المغري الاعتقاد بأن أنظمة الذكاء الاصطناعي مكتفية ذاتيًا وتُحسّن نفسها من خلال حلقات لا نهائية من التغذية الراجعة للبيانات والعمليات الحسابية. ومع ذلك، فإن الواقع أكثر تعقيدًا؛ فالذكاء الاصطناعي لا يقوم بتنظيف أو تدريب نفسه بالكامل. حجم أزمة "العمل الخفي" هذه مذهل. توظف منصات العمل الحر الكبرى الملايين من العمال لتدوين البيانات، وتصحيح أخطاء النماذج، وتنقية المحتوى العنيف أو الصريح. يتم الاستعانة بهؤلاء العمال من دول الجنوب العالمي، مثل كينيا والهند والفلبين، والذين يدعمون صناعة تبلغ قيمتها 8 مليارات دولار تغذي ثورة الذكاء الاصطناعي (منظمة العمل الدولية، 2024).

غالباً ما يكون هؤلاء العمال متعلمين تعليمًا عاليًا ولكنهم يقبلون هذه الوظائف لأن الفرص الأفضل نادرة في بلدانهم. يسجلون معتقدين أنهم سيساهمون في التكنولوجيا المتطورة، ليجدوا أنفسهم محاصرين في عمل رقمي بالقطعة، يتطلب منهم أحيانًا التعرض لمحتوى مسيء للغاية، مثل الاعتداء الجنسي على الأطفال، أو خطاب الكراهية، أو صور العنف المروعة (ذا فيرج، 2023). الأجر منخفض، والدعم النفسي لهذه المهام الصعبة نادر، والأمن الوظيفي يكاد يكون معدومًا، مما يؤدي إلى تحديات نفسية خطيرة (تايم، 2023).
دعاوى قضائية ومخاوف متزايدة حول أخلاقيات الذكاء الاصطناعي

لماذا لم تقم الشركات بإصلاح هذا الوضع؟ لأنه رخيص وسهل التغافل عنه. ومع ذلك، يأتي هذا الأمر بمخاطر متزايدة. بدأ المستهلكون والمنظمون بالفعل في التشكيك في أخلاقيات سلاسل توريد الذكاء الاصطناعي. على سبيل المثال، في عام 2023، تم رفع دعوى قضائية في كينيا ضد شركة ساما وشركة أوبن أيه آي (OpenAI)، مزود خدمة روبوت الدردشة الشهير تشات جي بي تي (ChatGPT)، نيابة عن عمال سابقين في مجال الإشراف على المحتوى. زعمت الدعوى أن العمال تعرضوا لظروف عمل غير آمنة وفصل تعسفي بعد أن أُجبروا على معالجة مواد رسومية ومزعجة للغاية، مما أدى إلى إصابة بعضهم باضطراب ما بعد الصدمة (PTSD) والقلق والاكتئاب (ذا فيرج، 2023؛ تايم، 2023).
كما أن صناعة الذكاء الاصطناعي تواجه دعاوى قضائية تتعلق بسوء تصنيف العمال كمقاولين مستقلين بدلاً من موظفين، مما يحرمهم من المزايا والحقوق الأساسية. ففي يونيو 2025، تستهدف الدعاوى القضائية في الولايات المتحدة صناعة الذكاء الاصطناعي لهذه الممارسات، مع وجود قضية بارزة ضد شركة ترانس بيرفكت ترانسليشنز (TransPerfect Translations) في كاليفورنيا بتهمة انتهاك قوانين الأجور وساعات العمل (انديبندنت كونتراكتور كومبلاينس، 2025). يضع قانون الذكاء الاصطناعي في الاتحاد الأوروبي والجهود المماثلة عالميًا توقعات جديدة للشفافية والإنصاف والمساءلة. قد تواجه الشركات التي تفشل في معالجة التكلفة البشرية للذكاء الاصطناعي أضرارًا بسمعتها، أو غرامات تنظيمية، أو ما هو أسوأ - انهيار الثقة في الأنظمة التي بنتها.
Web3: حل محتمل لمستقبل أخلاقي للذكاء الاصطناعي

قد تكون تقنية Web3 هي الحل الذي يحتاجه قطاع الذكاء الاصطناعي بشدة. فوعود Web3 - اللامركزية، والشفافية، وتمكين المستخدم - تعالج بشكل مباشر العديد من أوجه القصور في نظام العمل الخفي للذكاء الاصطناعي. ومع ذلك، تظل هذه الأدوات غير مستغلة إلى حد كبير من قبل الذكاء الاصطناعي المؤسسي، وهو ما يمثل فرصة ضائعة بوضوح.
توفر المنظمات اللامركزية المستقلة (DAOs) طريقة لدمج الشفافية والإنصاف الحقيقيين في سلاسل توريد الذكاء الاصطناعي. على عكس منصات العمل الحر التقليدية، حيث تُتخذ القرارات المتعلقة بالدفع، واختيار المهام، أو ظروف العمل خلف الأبواب المغلقة، تجعل المنظمات اللامركزية المستقلة كل قرار شفافًا ومرئيًا. يتم تخزين كل صوت يتم الإدلاء به، وكل تغيير في القاعدة، وكل دفعة للمساهم في سجل عام، مما يخلق مسارًا يمكن تدقيقه ولا يمكن تغييره بعد الواقعة. وهذا يعني أنه يمكن لأي شخص، من المشاركين إلى المدققين الخارجيين، تتبع من اتخذ القرارات بشأن "ماذا، ومتى، وكيف". تقضي سجلات الدفع غير القابلة للتغيير على النزاعات التي تعاني منها أعمال العمل الحر غير الشفافة، بينما تضمن سجلات الحوكمة العامة أن السلطة لا تتركز في أيدي عدد قليل.
بدأت أمثلة من العالم الحقيقي تظهر ما هو ممكن. تتيح بعض منصات التوظيف اللامركزية للعمال المستقلين إدارة هياكل أجورهم ومزاياهم بشكل جماعي، مع تسجيل جميع المعاملات والقرارات على السلسلة من أجل الشفافية الكاملة. وتطبق شركات أخرى مبادئ مماثلة على مشاريع البحث والمساهمين، حيث تُدوّن القواعد المتعلقة بالتعويض واختيار المشروع في عقود ذكية، مما يترك مجالًا ضئيلًا للقرارات المخفية أو الممارسات غير العادلة. توجد هذه النماذج وهي فعالة، ولكن الواقع هو أن الذكاء الاصطناعي المؤسسي أظهر اهتمامًا ضئيلاً بتبنيها حتى الآن.

يتشبث العديد من قادة الذكاء الاصطناعي في الشركات بفكرة أن سلاسل التوريد الأخلاقية مكلفة للغاية ببساطة - تكلفة مؤسفة لا تتناسب مع الهوامش التي يطلبها المستثمرون أو العملاء. لكن هذه أسطورة يمكن لتقنيات Web3 أخيرًا أن تفككها. لا تقتصر قيمة Web3 على الأخلاقيات؛ فهي توفر مكاسب في الكفاءة لا تستطيع الأنظمة التقليدية مجاراتها. فالعقود الذكية تقوم بأتمتة المدفوعات والمكافآت، مما يقلل الحاجة إلى فرق إدارية كبيرة ويزيل الوسطاء الذين يضيفون تكلفة دون توفير قيمة. تعني سجلات البلوك تشين غير القابلة للتغيير أن نزاعات الدفع، والتحقق من المهام، وإنفاذ العقود تتم باحتكاك أقل بكثير، مما يوفر الوقت والتكاليف القانونية والمشاكل التشغيلية.

ومع ذلك، فإن Web3 ليست خالية من العيوب. يمكن للأنظمة اللامركزية أن تكرر التحيزات إذا لم يتم تدقيق البيانات أو الحوكمة بشكل سليم. لا تضمن الشفافية وحدها قابلية التفسير في قرارات الذكاء الاصطناعي. وتواجه المنظمات اللامركزية المستقلة خطر النخبوية إذا انحرف التأثير نحو قلة ثرية. من الواضح أن الخطر الحقيقي يكمن في عدم فعل أي شيء. فالشركات التي تتصدر سلاسل توريد الذكاء الاصطناعي الأخلاقية لن تتجنب رد الفعل العنيف القادم فحسب، بل ستكسب أيضًا ثقة عملائها، والجهات التنظيمية، وموظفيها. أما أولئك الذين يستمرون في التغافل، فسيكتشفون في النهاية أن تكلفة تنظيف الفوضى أعلى بكثير من تكلفة الإصلاح الآن.

تقدم Web3 أوضح مسار لتنظيف فوضى الذكاء الاصطناعي الخفية. لكن نافذة الإصلاح الطوعي تغلق بسرعة. يمكن للشركات إما أن تقود هذا التغيير أو تُسحب إليه عندما يضرب رد الفعل العنيف. لن يظل الخيار ملكهم لفترة طويلة.
