د. عُريب هاني المومني تكتب : الحقُّ في الشّرح كضمانةٍ قانونيّةٍ لعدالةِ الذكاء الاصطناعيّ
Share
SHARE
السفير نيوز
لم يعد الذكاء الاصطناعيّ فكرةً خياليّة أو رفاهيّةً تقنيّة، بل أصبح واقعاً يُوجّه قرارات تمسّ حياة الناس يوميّاً: من القبول في الوظائف إلى الحصول على القروض، بل وحتى في قرارات العدالة الجنائيّة. ومع هذا التوسّع الهائل في الاعتماد على الأنظمة الآليّة، يبرز سؤالٌ جوهريّ: “هل يحقّ للإنسان أن يفهم القرارات التي تتّخذها الخوارزميّات بحقّه؟”. هنا يظهر مفهوم الحقّ في الشرح (The Right to Explanation) كأحد أكثر الحقوق الإنسانيّة حداثةً وإلحاحاً في عصر الذكاء الاصطناعيّ. يقومُ هذا الحقّ على مبدأ بسيط لكنّه عميق: أن يكون لكلّ فرد الحقّ في الحصول على تفسيرٍ واضحٍ ومفهوم لأيّ قرارٍ آليّ يخصّه أو يُؤثّر على وضعه القانونيّ أو الاجتماعيّ. فبدلاً من أن تبقى الخوارزميّات صناديق مُغلقة لا يُعرف ما يجري بداخلها، يُلزم هذا المبدأ الجهات التي تستخدمها بأن توضّح منطق القرار وأسبابه بلغةٍ يُمكن للبشر فهمها. وقد ظهر الحقّ في الشّرح لأوّل مرةٍ بشكلٍ واضحٍ في اللائحة العامة لحماية البيانات الأوروبيّة (GDPR) عام 2018، التي منحت الأفراد حقّ طلب تفسيرٍ للقرارات المُعتمدة كليّاً على المعالجة الآليّة. ومنذ ذلك الحين، بدأ المجتمع الدولي، بما في ذلك الأمم المتحدة ومفوضيّة حقوق الإنسان، في مناقشة هذا الحقّ بوصفه ركيزةً لضمان العدالة وعدم التمييز في الأنظمة الرقميّة. في العالم العربيّ، ومع تبنّي الحكومات لمشاريع التحوّل الرقميّ والذكاء الاصطناعيّ في الخدمات العامة، تظهر الحاجة المُلحّة لتضمين هذا الحقّ في التشريعات الوطنيّة. فقد تؤدي خوارزميّة غير دقيقة أو منحازة إلى استبعاد مُرشّح أو حرمان مُستحقٍّ دون أن يُعرف السبب، في ظلّ غياب حقٍّ واضحٍ في طلب التفسير أو الاعتراض. إنّ إدماج هذا الحقّ في التشريعات الوطنيّة على مستوى الدول العربيّة سيُعزّز ثقة المواطن في التكنولوجيا، ويحدّ من أخطائها أو إساءة استخدامها. وعلى الرغم من أهميّة هذ الحقّ، إلّا أنّ تطبيقه يُواجه عدّة تحدّيات، من أبرزها: تعقيد الأنظمة التقنيّة التي يصعب شرحها بلغةٍ بسيطة، غياب الأطر القانونيّة الوطنيّة التي تُلزم الشركات والمؤسسات بالشفافيّة الخوارزميّة، وتضارب المصالح بين الشفافيّة وحقوق الملكيّة الفكريّة أو الأسرار التجاريّة لشركات التكنولوجيا. ولتحويل هذا الحقّ من فكرةٍ إلى ممارسةٍ على أرض الواقع فإنّه لا بُدّ من اتّخاذ عدّة إجراءات من ضمنها: تضمين الحقّ في الشرح في قوانين حماية البيانات وسياسات الذكاء الاصطناعيّ، العمل على إنشاء هيئات رقابيّة مُختصّة بمراقبة القرارات الآليّة في المؤسسات العامّة والخاصّة، وتعزيز الثقافة الرقميّة وتوعية المستخدمين بحقوقهم في مواجهة الذكاء الاصطناعيّ. إنّ إقرار الحقّ في الشرح لا يهدف فقط إلى فكّ رموز الخوارزميّات، بل إلى ترسيخ مبدأ الشفافيّة كقاعدةٍ قانونيّةٍ مُلزمة في كلّ نظامٍ يعتمد على الذكاء الاصطناعيّ. فكما لا يُقبل في القضاء حكمٌ بلا تسبيب، لا ينبغي قبولُ قرارٍ آليّ بلا تفسير. فالعدالةُ، في جوهرها، لا تقوم على الدقّة التقنيّة وحدها، بل على الفهم والمساءلة والمعرفة. كما أنّ إقرار الحقّ في الشرح ليس نهاية النقاش، بل بدايته. فمع اتّساع دور الخوارزميّات في اتّخاذ القرارات، يبرز سؤالٌ لا يُمكن تجاهله: من يتحمّل المسؤوليّة عندما يخطئ الذكاء الاصطناعيّ؟ الآلة أم من برمجها؟ وإذا كانت العدالة تقوم على التسبيب والمساءلة، فهل يُمكن قبولُ قرارٍ لا نعرف من اتّخذه ولا كيف؟ رُبّما يأتي اليوم الذي يُقدَّم فيه طعنٌ بقرارٍ أصدرته خوارزميّة، وحينها فقط سنعرف إن كانت العدالة الرقميّة حقّاً في صفّ الإنسان أم ضدّه.