هل فشل "النقل إلى اليسار"؟ الذكاء الاصطناعي يمنحنا فرصة جديدة.
هل فشل نهج "النقل إلى اليسار"؟ كيف يعيد الذكاء الاصطناعي إحياء وعود تسريع تطوير البرمجيات
تسريع البرمجيات: تسعى الشركات باستمرار لزيادة سرعة إطلاق البرمجيات مع الحفاظ على أعلى مستويات الجودة. لتحقيق ذلك، تبنت الصناعة منهجيات متعددة مثل Agile وCI/CD وDevOps، بالإضافة إلى مفهوم "النقل إلى اليسار" (Shift Left). لكن في كثير من الأحيان، عند تطبيق نهج "النقل إلى اليسار"، يسيء البعض فهم أو تطبيق أهدافه الأساسية.
هدف Shift Left: هدف "النقل إلى اليسار" الأساسي هو دمج عمليات الاختبار مبكرًا ضمن دورة حياة تطوير البرمجيات. لكن هذا النهج أدى في كثير من الحالات إلى تهميش أو حتى إلغاء أدوار فرق ضمان الجودة (QA) المتخصصة. وبدلًا من ذلك، أصبح المطورون مطالبين ليس فقط بإنشاء الميزات، بل أيضًا بالتحقق من جودتها دون وجود رقابة مستقلة. ورغم أن هذا التوجه قد يبدو فعالًا نظريًا، فقد ظهرت نتائجه السلبية على أرض الواقع، حيث يفتقر المطورون غالبًا إلى الحوافز الكافية لاختبار الشيفرة البرمجية الخاصة بهم، مما يؤدي إلى إعطاء تغطية الاختبار أولوية منخفضة.
فشل Shift Left: لم يكن فشل نهج "النقل إلى اليسار" متأصلًا في عيب جوهري، بل كان نتيجة لعدم اكتمال منهجيته وعدم جاهزيته للتطبيق الصحيح. يتطلب التنفيذ الفعال لهذا النهج إعادة تقييم نماذج التعاون، وتحديد واضح للمسؤولية المشتركة، ودمج معايير الجودة بشكل أساسي في كل مرحلة من مراحل دورة حياة تطوير البرمجيات. في الشركات التي تنجح في تطبيق "النقل إلى اليسار"، لا تكتفي الفرق بكتابة الاختبارات في وقت مبكر فحسب، بل تعيد أيضًا تعريف كيفية تقييم المخاطر، وتحديد المتطلبات، وكيفية الاستفادة من التغذية الراجعة لضمان التحسين المستمر. مجرد إلغاء دور ضمان الجودة والاعتقاد بأن الابتكار سيحل محلها هو مفهوم اقتصادي خاطئ لا يؤدي إلى النجاح.

الذكاء الاصطناعي وفرصة ثانية لـ "النقل إلى اليسار"
الذكاء الاصطناعي وShift Left: في الوقت الراهن، يتهيأ الذكاء الاصطناعي لمنح نهج "النقل إلى اليسار" فرصة أخرى لتحقيق أهدافه. ومع ذلك، لا يزال التبني الواسع للذكاء الاصطناعي يواجه عائقًا متناميًا يعرف بـ"الخوف من الذكاء الاصطناعي" (FOAI). هذا الخوف لا ينبع من مجرد تصورات خيالية، بل يتزايد حتى بين الموظفين الأكثر ابتكارًا. إنه يتمثل في القلق من تحمل المسؤولية عن قرارات تتخذها أنظمة لا يفهمونها بشكل كامل. والأهم من ذلك، يرتبط هذا الخوف بالتردد في التخلي عن التحكم في التكنولوجيا التي تُقدم غالبًا دون توفير تفسير أو شفافية كافية.
الصندوق الأسود للذكاء الاصطناعي: نظريًا، يؤمن معظم قادة التكنولوجيا بضرورة احتضان الذكاء الاصطناعي. لكن عمليًا، يُقدم غالبًا كـ"صندوق أسود" - نظام غير شفاف، يصعب تفسيره، ومع ذلك يُفرض استخدامه. يُتوقع من الفرق أن تثق بشيء لا تستطيع استكشاف آلياته، مما يقوض الثقة ويغذي المقاومة. ومع ذلك، يمكن أن تتلاشى هذه المقاومة بسرعة عندما تُمنح الفرق الفرصة للمشاركة الفعالة في عملية تبني الذكاء الاصطناعي. فعندما تتمكن الفرق من فهم آليات عمل الذكاء الاصطناعي، وكيفية تحديد أولويات الاختبارات، والأسباب التي تدفعه للإشارة إلى بعض الإخفاقات، يتغير منظورهم تمامًا. الفرق التي كانت متشككة في البداية أصبحت الآن تستخدم منصات الذكاء الاصطناعي لإدارة آلاف الاختبارات بثقة تامة. هذا التحول لم يكن مدفوعًا بالتكنولوجيا وحدها، بل بالثقة التي بُنيت بفضل إدخال الشفافية والتحكم كعناصر أساسية في المعادلة.
دراسة MuleSoft: أظهرت دراسة أجرتها شركة "MuleSoft" عام 2023 أن 58% من الموظفين يشعرون بالقلق من فقدان وظائفهم بسبب الذكاء الاصطناعي، بينما 31% يخشون عدم امتلاك المهارات اللازمة للعمل مع هذه التقنيات. هذه المخاوف تؤكد الحاجة الملحة لتعزيز الشفافية في أنظمة الذكاء الاصطناعي وتوفير التدريب الكافي لبناء الثقة وتبديد "الخوف من الذكاء الاصطناعي" (FOAI). المصدر: MuleSoft 2023

بناء الثقة في الذكاء الاصطناعي: تؤكد الرؤية الشخصية أن الثقة هي المفتاح في تبني التكنولوجيا. ومن المفيد أيضًا تحديد من داخل الفريق يقوم بتشكيل هذه التقنيات ويساعد في تنفيذها. فالعمل في مجال الذكاء الاصطناعي والتقنيات العميقة كامرأة مؤسسة يعني التنقل عبر حواجز غالبًا ما تكون خفية ولكنها مستمرة. عادة ما يكون هناك توقع غير معلن لإثبات السلطة التقنية مرارًا وتكرارًا. وهذا يعكس افتراضات أعمق حول من يُنظر إليه على أنه مؤهل لمساعدة الشركات في بناء مستقبلها مع الذكاء الاصطناعي. ما ساعد، شخصيًا ومهنيًا، هو الظهور. فعندما تُرى النساء يؤسسن ويقدن شركات الذكاء الاصطناعي، ولا يكتفين باستخدام الذكاء الاصطناعي، بل يبنينه، فإن ذلك يتحدى بعض التحيزات العميقة الجذور. ولهذا السبب، فإن المشاركة النشطة في الفعاليات ومجموعات الإرشاد واللقاءات الفردية أمر بالغ الأهمية للمساعدة في انتقال الذكاء الاصطناعي وقبوله. يجب أن يتجاوز الشمول مجرد التمثيل، فهو يتطلب الوصول إلى التأثير، مما يعني التواجد في الغرف التي تُتخذ فيها القرارات المتعلقة بالتكنولوجيا والأخلاقيات والتأثير. فمستقبل الذكاء الاصطناعي يجب أن يُصاغ بشكل مشترك من قبل جميع من يستخدمونه.
تقرير Gartner: تشير تقارير "Gartner" إلى أن النساء يشغلن 30% فقط من المناصب القيادية في مجال الذكاء الاصطناعي على مستوى العالم، بينما يبلغ تمثيلهن في القوى العاملة التقنية العامة حوالي 26%، مما يسلط الضوء على الحاجة لزيادة الجهود لدعم وتمكين النساء في هذا القطاع سريع النمو. المصدر: Gartner 2023

ضرورة الشفافية والمساءلة في أنظمة الذكاء الاصطناعي
مصطلحات الذكاء الاصطناعي: في المشهد الحالي، يحيط بالذكاء الاصطناعي مستوى هائل من المصطلحات المتخصصة. فمن النماذج اللغوية الكبيرة (LLMs) والوكلاء والشبكات العصبية والبيانات الاصطناعية إلى الأنظمة المستقلة. وعلى الرغم من أن المصطلحات المتعلقة بـالذكاء الاصطناعي قد تكون مربكة، إلا أنه يجب فهمها. ففي المجالات عالية المخاطر مثل الرعاية الصحية والمالية واختبار برمجيات الشركات، يجب أن يكون الذكاء الاصطناعي مسؤولاً. تحتاج الفرق إلى معرفة ليس فقط ما حدث، بل لماذا. وهناك أيضًا أنظمة السلوك الوكيلة التي تعمل بشكل مستقل نيابة عن البشر. هذا النوع من الوظائف موجود بالفعل في منصات الذكاء الاصطناعي الحديثة. ولكن لاستخدامه بأمان وفعالية، يجب أن تكون الفرق قادرة على مراقبة وتعديل كيفية عمل أنظمة الذكاء الاصطناعي في الوقت الفعلي. بدون ذلك، فإن بناء تلك الثقة المطلوبة بشدة يكاد يكون مستحيلًا.
تعريفات أساسية في الذكاء الاصطناعي: تُعرف "النماذج اللغوية الكبيرة (LLMs)" بأنها أنظمة ذكاء اصطناعي مُدربة على مجموعات بيانات نصية ضخمة لإنشاء نصوص شبيهة بالبشر، والإجابة على الأسئلة، وأداء مهام معالجة اللغة الطبيعية. أما "الوكلاء" (Agents) في سياق الذكاء الاصطناعي، فهم برامج تتفاعل مع بيئتها، وتتصرف بشكل مستقل لتحقيق أهداف معينة، وغالبًا ما تتعلم من تجاربها. تُعد "الشبكات العصبية" نماذج حسابية مستوحاة من الدماغ البشري، مصممة للتعرف على الأنماط والعلاقات في البيانات. وتُشير "البيانات الاصطناعية" إلى البيانات التي تُنشأ بواسطة الخوارزميات بدلًا من جمعها من العالم الحقيقي، وتُستخدم لتدريب نماذج الذكاء الاصطناعي أو اختبارها. بينما تعني "الأنظمة المستقلة" الأنظمة القادرة على العمل واتخاذ القرارات دون تدخل بشري مباشر. هذه المفاهيم ضرورية لفهم أعمق لكيفية عمل الذكاء الاصطناعي وتطبيقاته المتعددة في الصناعة.

مستقبل الذكاء الاصطناعي: لا يُعتقد أن الذكاء الاصطناعي سيغير العالم من خلال اختراق دراماتيكي واحد. بل يُتوقع أن تتكشف تأثيراته الأقوى بهدوء، وسيحدث ذلك داخل البنية التحتية، تحت واجهات المستخدم، وخلف الكواليس. لن يعلن الذكاء الاصطناعي المستقبلي الجاهز عن نفسه بالضرورة من خلال عروض تقديمية براقة. بل ستُقاس مساهماته ليس في العناوين الرئيسية، ولكن في استقرار الإصدارات، في دورات الاسترداد الأسرع، وفي الثقة التي تقوم بها الفرق بشحن البرمجيات. هذا التحول سيعيد أيضًا تشكيل القيمة التي نوليها لـالقدرات البشرية. فمع قيام الذكاء الاصطناعي بأتمتة المهام المتكررة والميكانيكية بشكل متزايد، ستبرز المهارات التي تزداد أهميتها، مثل الفضول، والتفكير الاستراتيجي، والقدرة على صياغة المشاكل المعقدة. هذه هي السمات التي ستحدد القيادة الفعالة في عالم يعتمد على الذكاء الاصطناعي، وليس مجرد الكفاءة التقنية. الشركات التي ستزدهر في المستقبل هي تلك التي تدمج الذكاء الاصطناعي بطريقة مدروسة. تلك التي تعامل الثقة والجودة والشفافية كمبادئ تصميم أساسية وليست مجرد أفكار لاحقة ستعد نفسها للنجاح. ويُعتقد أيضًا أن تلك التي لا ترى الذكاء الاصطناعي بديلاً عن البصيرة البشرية، بل مُمكّنًا لها، ستحقق أداءً جيدًا. لن يحل الذكاء الاصطناعي محل العمال. ومع ذلك، فإن تجاهل إمكاناته أو تنفيذه دون شفافية قد يعيق مستقبل المؤسسة. أما بالنسبة لـ"النقل إلى اليسار"، فقد يكون قد فشل في المرة الأولى، ولكن مع التطبيق الصحيح للذكاء الاصطناعي، تتوفر فرصة للمحاولة مرة أخرى، هذه المرة بالأدوات والعقلية والوضوح اللازمين لتحقيق النجاح.