رسالة قداسة البابا فرنسيس في مناسبة اليوم العالمي السّابع والخمسين للسّلام، الأوّل من كانون الثّاني/يناير 2024، الذّكاء الاصطناعيّ والسّلام.

 رسالة قداسة البابا

 فرنسيس

في مناسبة اليوم العالمي السّابع والخمسين للسّلام

الأوّل من كانون الثّاني/يناير 2024

 

الذّكاء الاصطناعيّ والسّلام

في بداية السّنة الجديدة، زمن النّعمة الذي يمنحه الله لكلّ واحد منّا، أودّ أن أتوجّه إلى شعب الله، وإلى شعوب العالم، ورؤساء الدّول والحكومات، وممثّلي الدّيانات المختلفة والمجتمع المدنيّ، وإلى جميع الرّجال والنّساء في زمننا، لأقدّم للجميع أمنية سلام شامل.

1. تقدّم العِلم والتّكنولوجيا كطريق للسّلام

يؤكّد الكتاب المقدّس أنّ الله أعطى الإنسان روحه ليملأه "مَهارةً وفَهْمًا ومَعرِفةً بِجَميعِ الصَّنائع" (خروج 35، 31). الفَهم أو الذّكاء هو تعبير عن الكرامة التي أعطانا إيّاها الخالق، الذي خلقنا على صورته ومثاله (راجع تكوين 1، 26)، ومكّننا من أن نجيب على محبّته بالحرّيّة والمعرفة. والعِلم والتّكنولوجيا يُظهران بصورة خاصّة هذه الطّبيعة العلائقيّة الأساسيّة للذّكاء البشريّ: فهما نتاجان استثنائيّان لقدرته الإبداعيّة.

في الدّستور الرّعائي فرح ورجاء، أكّد المجمع الفاتيكانيّ الثّاني هذه الحقيقة، وصرَّح أنّ "الإنسان سعى دائمًا لتطوير حياتَه بعملِه وذكائه" [1]. عندما يسعى البشر، "بالأدوات التّقنية"، لكي يجعلوا الأرض "مسكنًا لائقًا بالعائلة البشريّة كلّها" [2]، فإنّهم يعملون وفقًا لتدبير الله ويتعاونون مع إرادته لإكمال الخليقة ونشر السّلام بين الشّعوب. وتقدّم العِلم والتّكنولوجيا أيضًا، يؤدّي إلى تحسين الإنسان وتغيير العالم، بقدر مساهمتهما في تحسين نظام المجتمع البشريّ، وفي زيادة الحرّيّة والشّركة الأخويّة.

ونحن بحقّ نفرح ونشعر بالشّكر وعرفان الجميل للإنجازات غير العاديّة التي حقّقها العِلم والتّكنولوجيا، والتي بفضلها وُجِدَ علاجٌ لعدد لا يحصى من الشّرور التي ابتليت بها الحياة البشريّة وتسبّبت في آلام كبيرة. وفي الوقت نفسه، فإنّ التّقدّم التّقنيّ والعِلميّ، الذي يجعل من الممكن ممارسة سيطرة غير مسبوقة حتّى الآن على الواقع، يضع مجموعة واسعة من الإمكانيّات في يدَيّ الإنسان، والتي قد يكون بعضها خطرًا على بقاء الإنسان وعلى بيتنا المشترك [3].

ولذلك فإنّ التّقدّم الملحوظ الذي حقّقته تكنولوجيّات المعلومات الجديدة، وخاصّة في المجال الرّقميّ، إنّما هي فرص مدهشة، وفي الوقت نفسه مجازفة خطيرة، ولها آثار جدّيّة في السّعي لتحقيق العدل والوئام بين الشّعوب. ولذلك لا بدَّ من طرح بعض الأسئلة المُلِحَّة. ما هي العواقب في المدى القريب والبعيد للتكنولوجيّات الرّقميّة الجديدة؟ وماذا سيكون تأثيرها على حياة الأفراد والمجتمع وعلى الاستقرار الدّوليّ والسّلام؟

2. مستقبل الذّكاء الاصطناعيّ بين الوعود والمخاطر

التقدّم في تكنولوجيا المعلومات وتطوّر التّكنولوجيّات الرّقميّة بدأ يُحدِث، في العقود الأخيرة، تغيّرات عميقة في المجتمع العالميّ وديناميكيّاته. والأدوات الرّقميّة الجديدة أخذت تغيّر وجه الاتّصالات والإدارة العامّة والتّعليم والاستهلاك والعلاقات بين الأشخاص، وجوانب أخرى لا حصر لها في الحياة اليوميّة.

وكذلك، التّقنيّات التي تستخدم عددًا كبيرًا من الخوارزميّات يمكنها أن تستخرج، من الآثار الرّقميّة المتبقّية على ”الإنترنت“، البيانات التي تسمح بالتّحكّم في عادات الأشخاص العقليّة والعلائقيّة لأغراض تجاريّة أو سياسيّة، غالبًا دون علمِهم، ما يحدّ من ممارستهم الواعية لحرّيّة الاختيار. في الواقع، في مساحة مثل الشّبكة المعلوماتيّة العالميّة (web)، التي تتميّز بكمّيّة زائدة من المعلومات، يمكن للتّقنيّات تنظيم تدفّق البيانات وفقًا لمعايير اختيار لا يشعر المستخدم بها دائمًا.

علينا أن نتذكّر أنّ البحث العِلميّ والابتكارات التّكنولوجيّة ليست منزوعة من الواقع ولا هي ”حياديّة“ [4]، ولكنّها تخضع للمؤثّرات الثّقافيّة. ولكونها أنشطة إنسانيّة بكلّ معنى الكلمة، فإنّ الاتّجاهات التي تتّخذها تعكس اختيارات متأثّرة بالقيَم الشّخصيّة والاجتماعيّة والثّقافيّة لكلّ عصر. والأمر نفسه ينطبق على النّتائج التي تحقّقها: فلأنّها نتيجة لمقاربات إنسانيّة في البيئة المحيطة بها، لها دائمًا بُعد أخلاقيّ، يرتبط ارتباطًا وثيقًا بقرارات الذين يخطّطون للتجربة ويوجّهون الإنتاج نحو أهداف خاصّة.

وهذا ينطبق أيضًا على أشكال الذّكاء الاصطناعيّ. حتّى الآن، لا يوجد تعريف موحّد له في عالم العِلم والتكنولوجيّا. المصطلح نفسه، الذي دخل الآن في اللغة العامّة، يشمل مجموعة متنوّعة من العلوم والنّظريّات والتّقنيّات التي تهدف إلى جعل الآلات تنتج أو تقلِّد القدرات المعرفيّة للبشر في أدائها. الحديث بصيغة الجمع عن ”أشكال الذّكاء“ يمكن أن يساعد في المقام الأوّل على التّأكيد على الفجوة التي لا يمكن ردمها والتي توجد بين هذه الأنظمة، مهما كانت عجيبة وقويّة، وبين الإنسان: فهي في نهاية المطاف ”مجزّأة“، بمعنى أنّها تستطيع فقط تقليد أو إعادة إنتاج بعض وظائف الذّكاء البشري. استخدام صيغة الجمع يبيِّن أنّ هذه الأدوات، المختلفة كثيرًا بعضها عن بعض، يجب اعتبارها دائمًا ”أنظمة اجتماعيّة تقنيّة“. وفي الواقع، فإنّ تأثيرها، بغضّ النّظر عن التّكنولوجيا الأساسيّة، لا يعتمد على التّصميم فحسب، بل يعتمد أيضًا على أهداف ومصالح الذين يمتلكونها والذين يقومون بتطويرها، وكذلك على الحالات التي تُستَخدَم فيها.

ولذلك، يجب أن يُفهم الذّكاء الاصطناعيّ على أنّه كوكبة من الحقائق المختلفة، ولا يمكننا أن نفترض بداهة أنّ تطوّره سيقدّم مساهمة مفيدة لمستقبل البشريّة وللسّلام بين الشّعوب. ولن تكون هذه النّتيجة الإيجابيّة ممكنة إلّا إذا أثبتنا أنّنا قادرون على التّصرّف بمسؤوليّة وباحترام القيَم الإنسانيّة الأساسيّة مثل "الشّموليّة والشّفافيّة والأمن والعدالة والسّريّة والثّقة" [5].

ولا يكفي حتّى أن نفترض التزام الذين يصمّمون الخوارزميّات والتّقنيّات الرّقميّة بالتّصرّف بطريقة أخلاقيّة ومسؤولة. ينبغي تعزيز، أو، إذا لزم الأمر،إنشاء هيئات مسؤولة عن دراسة القضايا الأخلاقيّة المترتّبة عليها وحماية حقوق الذين يستخدمون بعض أشكال الذّكاء الاصطناعيّ أو يتأثّرون بها [6].

ولذلك فإنّ التّوسّع الهائل في التّكنولوجيا يجب أن يكون مصحوبًا بالتّدريب الكافي على المسؤوليّة في تطويرها. الحرّيّة والعيش معًا بسلام يتعرّضان للتّهديد عندما يستسلِم البشر لتجارب الأنانيّة والمصلحة الشّخصيّة والجشع في الرّبح والتّعطّش إلى السّلطة. ولذلك، يقع على عاتقنا واجب توسيع الرّؤية وتوجيه البحث العِلميّ والتّقنيّ إلى تحقيق السّلام والخير العام، في خدمة التّنمية المتكاملة للإنسان والمجتمع [7].

الكرامة الجوهريّة لكلّ شخص والأخوّة التي تربطنا أعضاءً في الأسرة البشريّة الواحدة يجب أن تكون أساسًا لتطوير التّكنولوجيّات الجديدة، فتكون بمثابة معايير لا جدال فيها لتقييمها قبل استخدامها، حتّى يتمكّن التّقدّم الرّقميّ من أن يتحقّق مع احترام العدل ومع المساهمة في قضيّة السّلام. التّطورات التّكنولوجيّة التي لا تؤدّي إلى تحسين نوعيّة حياة البشريّة جمعاء، بل عكس ذلك تؤدّي إلى تفاقم عدم المساواة والصّراعات، لا يمكن اعتبارها تقدّمًا حقيقيًّا [8].

ستزداد أهمّيّة الذّكاء الاصطناعيّ. والتّحدّيات التي تثيرها هي تحدّيات تقنيّة، ولكنّها أيضًا أنثروبولوجيّة وتربويّة واجتماعيّة وسياسيّة. فهي تَعِد، مثلًا، بتوفير الجهد، وإنتاج أكثر فعّاليّة، ووسائل نقل أكثر راحة، وحركة متزايدة في الأسواق، فضلًا عن ثورة في عمليّات جمع البيانات وتنظيمها والتحقّق منها. وعلينا أن ندرك التّحوّلات السّريعة المستمرّة وأن نديرها بطريقة تصون حقوق الإنسان الأساسيّة، وتحترم المؤسّسات والقوانين التي تعزّز التّنمية البشريّة المتكاملة. الذّكاء الاصطناعيّ يجب أن يَخدُم أفضل الإمكانات البشريّة وأسمى تطلّعاتنا، ولا يتنافس معها.

3. تكنولوجيا المستقبل: آلات تتعلَّم بنفسها

الذّكاء الاصطناعيّ، بأشكاله المتعدّدة، القائم على تقنيّات التّعلّم التّلقائي (التّعلّم الآلي)، رغم أنّه لا يزال في مرحلة رائدة، فإنّه بدأ يُدخل تغييرات ملحوظة في نسيج المجتمعات، ويُحدِث تأثيرًا عميقًا في الثّقافات والسّلوكيّات الاجتماعيّة وبناء السّلام.

التّطورات مثل التّعلّم الآلي أو التّعلّم العميق تطرح أسئلة تفوق مجالات التّكنولوجيا والهندسة، ولها صلة بفهم مرتبط ارتباطًا وثيقًا بمعنى الحياة البشريّة وعمليّات المعرفة الأساسيّة وقدرة العقل على الوصول إلى الحقيقة.

قدرة بعض الأجهزة على إنتاج نصوص متماسكة ومتناسقة من حيث المعنى، على سبيل المثال، ليس ضمانًا لنثق بها. يقال إنّهم يستطيعون أن ”يُحدِثوا وهمًا“، أي أن يصدروا عبارات تبدو للوهلة الأولى معقولة، ولكن في الواقع لا أساس لها من الصّحّة أو يمكن أن تدُلَّ على أحكام مسبقة. وهذه مشكلة خطيرة عندما يُستخدَم الذّكاء الاصطناعيّ في حملات التّضليل التي تنشر أخبارًا مزيّفة وتؤدّي إلى تزايد عدم الثّقة بوسائل الإعلام. السّريّة وحيازة البيانات والملكيّة الفكريّة هي مجالات أخرى تشكّل فيها هذه التّكنولوجيّات مخاطر جسيمة، يضاف إليها المزيد من العواقب السّلبيّة المرتبطة باستخدامها بصورة غير سليمة، مثل التّفرقة، والتّدخل في العمليّات الانتخابيّة، والانحياز إلى مجتمع يراقب ويتحكّم بالنّاس، وحرمان الاستخدام الرّقميّ، وتفاقم نزعة فرديّة تسبّب انفصالًا متزايدًا عن الجماعة. كلّ هذه العوامل تهدّد بتغذية الصّراعات وعرقلة السّلام.

4. حسّ المحدوديّة في النّموذج التّكنوقراطيّ

عالمنا واسع جدًّا، ومتنوّع ومعقّد فلا يمكن أن نعرفه معرفة كاملة وأن نصنّفه. لا يمكن للعقل البشريّ أن يدرك بصورة كاملة غِنى العالم، ولا حتّى بمساعدة أكثر الخوارزميّات تقدّمًا. في الواقع، هذه الخوارزميّات لا تقدّم لنا توقّعات مضمونة عن المستقبل، بل إحصائيّات تقريبيّة فقط. لا يمكننا التنبُّؤ بكلّ شيء، ولا يمكننا أن نحسب كلّ شيء، لأنّه في النّهاية "الواقع أسمى من الفكرة" [9] ، ومهما بلغت قدرتنا الحسابيّة، سيكون هناك دائمًا أمور متبقّية لا يمكننا أن نَصِل إليها، فهي تَعصَى على كلّ محاولة لإخضاعها لقياساتنا.

علاوة على ذلك، كمّيّة البيانات الكبيرة التي يحلّلها الذّكاء الاصطناعيّ ليست بحدِّ ذاتها ضمانة للحياديّة. عندما تخلط الخوارزميّات بين المعلومات عند استخدامها، فإنّها تهدّد بتشويهها، وتكرّر المظالم والأحكام المسبقة في البيئات التي تنشأ فيها. وكلّما زادت السّرعة، وزاد التّعقيد فيها، كلّما زادت صعوبة الفهم لماذا نتجت هذه النّتيجة المحدّدة.

يمكن للآلات الذّكيّة أن تؤدّي المَهام المَوكولة إليها بكفاءة متزايدة، لكن، الهدف والمعنى لعمليّاتها، سيستمرّ الإنسان هو الذي يحدّدها أو يُفَعِّلُها، والإنسان له عالم خاصّ به من القِيَم. يكمن الخطر في أنّ المعايير لبعض الاختيارات تصير أقلّ وضوحًا، وتغيب المسؤوليّة في اتّخاذ القرار، ويتخلّى المنتجون عن الالتزام بالعمل من أجل خير الجماعة. بمعنى ما، يعزّز هذه الإمكانيّة النّظام التّكنوقراطيّ، الذي يربط الاقتصاد والتّكنولوجيا، ويفضِّل معيار الفعّاليّة في الإنتاج، فيميل إلى تجاهُل كلّ ما لا يرتبط بمصالحه المباشرة [10] .

هذا الأمر يجب أن يجعلنا نفكّر في جانبٍ كثيرًا ما نتجاهله في العقليّة التكنوقراطيّة والموجّهة نحو الإنتاج، التي نعيشها في يومنا هذا. وهو أمر حاسم للتّنمية الشّخصيّة والاجتماعيّة، وهو: ”حسّ المحدوديّة“. في الواقع، الإنسان، الذي هو كائنٌ فانٍ بتعريفه، ويفكّر في تجاوز كلّ الحدود بفضل التّكنولوجيا، يوشك أن يفقد السَّيطرة على نفسه، في هَوَسِه لإخضاع كلّ شيء لسيطرته. وفي بحثه عن الحرّيّة المطلقة، يُخاطر أن يقع في دوّامة ”الدّيكتاتوريّة التّكنولوجيّة“. الاعتراف بحدودنا كخليقة والقبول بها، هو شرط لا غِنَى عنه للإنسان لكي يحقّق، أو بالأحرى، لكي يقبل الكمال كعطيّة. بينما، في السّياق الأيديولوجيّ للنّموذج التّكنوقراطيّ، الذي يدفعه غرور مثل غرور بروميثيوس بالاكتفاء الذّاتيّ، تزداد الاختلافات وعدم المساواة، وتتراكم المعرفة والمال في أيدي قلّة من النّاس، ويصحبها مخاطر جسيمة على المجتمعات الدّيمقراطيّة وعلى العيش معًا بسلام [11] .

5. مواضيع صارخة في مجال الأخلاق

في المستقبل، مصداقيّة الشّخص الذي يطلب قرضًا ماليًّا، وملاءمة شخصٍ ما لوظيفة، وإمكانيّة وقوع الشّخص المحكوم عليه في الجرم ثانية، أو الحقّ في الحصول على اللجوء السّياسيّ أو المساعدة الاجتماعيّة، كلّ ذلك يمكّن أن تصير أنظمة الذّكاء الاصطناعيّ هي التي تحدّده. هذه الأنظمة تلغي مختلف مستويات الوساطة، وتُعرِّض للوقوع في أشكال من التَّحيّز والتّفرقة: إذ يمكن أن تتضاعف بسهولةالأخطاء المرتبطة بنظام، فتُنتج ظُلمًا ليس فقط في حالاتٍ فرديّة، بل أيضًا أخطاء متلاحقة مثل تتابع وقوع حجارة الدّومينو، وتسبّب أشكالًا حقيقيّة من عدم المساواة الاجتماعيّة.

بالإضافة إلى ذلك، تبدو أحيانًا أشكال الذّكاء الاصطناعيّ قادرة على أن تؤثّر على قرارات الأفراد من خلال خيارات محدّدة مسبقًا ومرتبطة بمحفّزات وإقناع بالعدول عن الموقف، أو من خلال أنظمة تتحكَّم بالخيارات الشّخصيّة بناء على كيفيّة تنظيم المعلومات. هذه الأشكال من التّلاعب والخِداع أو السّيطرة الاجتماعيّة، تتطلّب تنبّهًا وتدقيقًا حذرًا، وتقع فيها مسؤوليّة قانونيّة واضحة على المنتجين، والذين يستخدمونها والسّلطات الحكوميّة.

الاعتماد على عمليّات أوتوماتيكيّة تصنّف الأفراد، مثلًا من خلال استخدام مفرط للرّقابة أو اعتماد أنظمة الائتمان الاجتماعيّ، يمكن أن يكون له تداعيات عميقة، وأيضًا على النّسيج المدنيّ، ويحدّد تصنيفات غير صحيحة بين المواطنين. ويمكن أن تؤدّي عمليّات التّصنيف المُصطنعة هذه إلى صراعات على السّلطة أيضًا، ليس فقط بين الأشخاص الافتراضيّين، بل بين الأشخاص الحقيقيّين أيضًا. الاحترام الأساسيّ للكرامة الإنسانيّة يتطلّب منّا رفض أن يتمّ تحديد فرادة الشّخص من خلال مجموعة من البيانات. يجب ألّا نسمح للخوارزميّات أن تحدّد الطّريقة التي فيها نفهم حقوق الإنسان، وأن تضع جانبًا القِيَم الأساسيّة للرّأفة والرّحمة والغفران، أو إلغاء إمكانيّة أن يتغيّر الفرد وأن يترك ماضيه وراءه.

في هذا السّياق، لا يسعنا إلّا أن نأخذ بعين الاعتبار تأثير التكنولوجيّات الجديدة في مجال العمل: الأعمال التي كانت في وقت من الأوقات حِكرًا على العمل البشريّ، سيطرت عليها بسرعة التّطبيقات الصّناعية للذّكاء الاصطناعيّ. في هذه الحالة أيضًا، يوجد خطر كبير لتحقيق فائدة غير متكافئة لعدد قليل من النّاس، على حساب كثيرين يُعرَّضون للفقر. احترام كرامة العمّال وأهمّيّة العمل لتحقيق الرّفاه الاقتصاديّ للأشخاص والعائلات والمجتمعات، والأمن الوظيفيّ والأجور العادلة، كلّ ذلك عليه أن يشكّل أولويّة عُليا للمجتمع الدّوليّ، فيما تتغلغل أشكال التّكنولوجيا هذه بشكل أعمق دائمًا في أماكن العمل.

6. هل سنحوّل السيوف إلى سكك للحراثة؟

في هذه الأيّام، ونحن ننظر إلى العالم من حولنا، لا يمكننا أن نتهرَّب من القضايا الأخلاقيّة الخطيرة المرتبطة بقطاع التّسلّح. إمكانيّة إجراء عمليّات عسكريّة من خلال أنظمة التّحكم عن بُعد أدّت إلى عدم رؤية الدّمار الذي تسبّبه هذه الأنظمة، وإلى عدم الإحساس بمسؤوليّة استخدامها، فتنظر بمزيد من البرود واللامبالاة إلى مأساة الحرب الهائلة. الأبحاث في التّقنيّات التي تنشأ في القطاع المسمّى ”بأنظمة الأسلحة الفتّاكة العاملة بصورة آليّة“، بما في ذلك استخدام الذّكاء الاصطناعيّ العسكريّ، هو سببٌ خطير يثير القلق على الصّعيد الأخلاقيّ. لا يمكن لأنظمة الأسلحة الآليّة أن تكون هي مسؤولة أخلاقيًّا: الإنسان وحده له القدرة على الحكم الأخلاقيّ واتّخاذ القرار الأخلاقيّ، والإنسان أكثر بكثير من مجرّد مجموعة معقّدة من الخوارزميّات. ومن ثمّ، لا يمكن حصر هذه القدرة الأخلاقيّة في برمجة آليّة، فهي مهما كانت ”ذكيّة“، تبقى دائمًا آلة. لهذا السّبب، لابدّ من أن نضمن رقابة بشريّة مناسبة، ومنسجمة ولها أهمّيّتها، على أنظمة الأسلحة.

ولا نقدر أن نتجاهل إمكانيّة وقوع الأسلحة المتطوّرة في الأيدي الخطأ، فتسهّل على سبيل المثال، الهجمات الإرهابيّة أو التّدخّلات التي تهدف إلى زعزعة استقرار أنظمة حكوميّة شرعيّة. باختصار، العالم لا يحتاج إلى تقنيّات جديدة لتطوير آثم للسّوق، ولتجارة الأسلحة، تعزّز جنون الحرب. إن فعلنا ذلك، ليس الذّكاء وحده، بل قلب الإنسان نفسه، يصبح عرضة لأنيصير ”اصطناعيًّا“. يجب ألّا نستخدم أكثر التّطبيقات التّقنيّة تطوّرًا لتسهيل حلّ الصّراعات بالعنف، بل لتمهيد الطّرق إلى السّلام.

من منظور أكثر إيجابيّة، لو تمّ استخدام الذّكاء الاصطناعيّ لتعزيز التّنمية البشريّة المتكاملة، لأمكنه أن يقدّم ابتكارات مهمّة في الزّراعة والتّعليم والثّقافة، وتحسين في مستوى المعيشة لأمم وشعوب بأكملها، وازدادت الأخوّة الإنسانيّة والصّداقة الاجتماعيّة. في النّهاية، الطّريقة التي بها نستخدمه لنشمل الأخيرين، أيْ الإخوة والأخوات الأكثر ضعفًا واحتياجًا، هي المقياس التي تُظهر إنسانيّتنا.

النّظرة الإنسانيّة والرّغبة في مستقبل أفضل لعالمنا، يدفعان إلى ضرورة الحوار بين مختلف العلوم والتخصّصات، يهدف إلى التّطوير الأخلاقيّ للخوارزميّات - أخلاقيّات الخوارزميّات – فيه توجّه القِيَم مسارات التّقنيّات الجديدة [12] . يجب أن تُؤخذ القضايا الأخلاقيّة بعين الاعتبار منذ بداية البحث، وفي مراحل الاختبار أيضًا، والتّصميم والتّصنيع والتّوزيع والتّسويق. هذا هو النّهج الأخلاقيّ للتّصميم، الذي فيه يكون للمؤسّسات التّربويّة وصُنَّاع القرار دور أساسيّ يمارسونه.

7. تحدّيات التّربية

تطوير التّكنولوجيا التي تحترم وتخدم الكرامة الإنسانيّة، له ارتباطات واضحة بالمؤسّسات التّربويّة وعالم الثّقافة. بمضاعفة إمكانيّات الاتّصال، سمحت التّقنيّات الرّقميّة بأن نلتقي بطرقٍ جديدة. مع ذلك، لا زلنا بحاجة لأن نتأمّل باستمرار في نوع العلاقات التي توجّهنا إليها هذه التّقنيّات. الشّباب اليوم ينمون في بيئات ثقافيّة مشبعة بالتّكنولوجيا، وهذا الأمر لا يمكن إلّا أن يثير تساؤلات حول أساليب التّدريس والتّنشئة.

التّربية على استخدام أشكال الذّكاء الاصطناعيّ يجب أن تهدف، قبل كلّ شيء، إلى تعزيز التّفكير النّقدي. من المهمّ للمستخدمين من جميع الأعمار، وخاصّة الشّباب، أن يطوّروا قدرتهم على التّمييز في استخدام البيانات والمحتويات المجموعة على الشّبكة المعلوماتيّة العالميّة (web) أو التي أنتجتها أنظمة الذّكاء الاصطناعيّ. المدارس والجامعات والجمعيّات العلميّة مدعوّة إلى أن تساعد الطّلاب والمختصّين ليتبنّوا الجوانب الاجتماعيّة والأخلاقيّة لتطوير واستخدام التّكنولوجيا.

التّنشئة على استخدام أدوات الاتّصال الجديدة يجب أن تأخذ بعين الاعتبار، ليس فقط تشويه المعلومات والأخبار المزيّفة، بل أيضًا العودة المقلقة إلى "مخاوف قديمة [...] استطاعت أن تختبئ وتتطوّر خلف التقنيّات الجديدة" [13] . للأسف، نجد أنفسنا مرّة أخرى مضطرّين لأن نواجه ”الميل لإقامة ثقافة الجدران، ورفع الجدران، لمنع اللقاء مع الثّقافات الأخرى، ومع الآخرين“ [14]  وتطوير العيش معًا بسلام وأخوّة.

8. تحدّيات تطوير القانون الدّوليّ

انتشار الذّكاء الاصطناعيّ العالميّ يوضح، إلى جانب مسؤوليّة الدّول ذات السّيادة لتنظيم استخدامه داخليًّا، دور المنظّمات الدّولية التي يمكنها أن تلعب دورًا حاسمًا في التّوصّل إلى اتفاقيّات متعدّدة الأطراف وتنسيق تطبيقها وتنفيذها [15]. وفي هذا الصّدد، أحثّ هيئة الأمم للعمل معًا لتبنّي معاهدة دوليّة ملزمة، تنظِّم تطوير واستخدام الذّكاء الاصطناعيّ بأشكاله المتعدّدة. وبطبيعة الحال، ينبغي ألّا يكون هدف التّنظيم منع الممارسات السّيّئة فحسب، بل ينبغي أيضًا أن يكون تشجيع الممارسات الجيّدة، وتحفيز الأساليب الجديدة والإبداعيّة، وتسهيل المبادرات الشّخصيّة والجماعيّة [16].

وفي النّهاية، في البحث عن النّماذج التّنظيميّة التي يمكن أن توفّر توجيهًا أخلاقيًّا لمطوّري التّكنولوجيّات الرّقميّة، من الضّروريّ تحديد القِيَم الإنسانيّة التي يجب أن تكون على أساس التزام المجتمعات لصياغة وتبنّي وتطبيق الأطر التّشريعيّة اللازمة. العمل على صياغة مبادئ توجيهيّة أخلاقيّة لإنتاج أشكال الذّكاء الاصطناعيّ لا يمكن أن يتجاهل النّظر في أسئلة أعمق تتعلّق بمعنى الحياة الإنسانيّة، وحماية حقوق الإنسان الأساسيّة، والسّعي لتحقيق العدل والسّلام. عمليّة التّمييز الأخلاقيّ والقانونيّ هذه يمكن أن تكون فرصة ثمينة للتفكير المشترك في الدّور الذي يجب أن تلعبه التّكنولوجيا في حياتنا الفرديّة والجماعيّة، وكيف يمكن أن يؤدّي استخدامها إلى المساهمة في خلق عالم فيه مزيد من المساواة والإنسانيّة. ولهذا السّبب، في المناقشات في تنظيم الذّكاء الاصطناعيّ، يجب الأخذ بعين الاعتبار أصوات جميع الأطراف المعنيّة، بما في ذلك الفقراء والمهمّشين وغيرهم ممّن يظلّون غالبًا لا صوت لهم في عمليّات صنع القرارات العالميّة.

 

* * * * *

 

أتمنّى أن يشجّعنا هذا التّفكير حتّى يكون التّقدّم في تطوير أشكال الذّكاء الاصطناعيّ خادمًا في نهاية الأمر لقضيّة الأخوّة الإنسانيّة والسّلام. إنّها ليست مسؤوليّة بعض النّاس القليلين، بل مسؤوليّة الأسرة البشريّة بأكملها. السّلام، في الواقع، هو ثمرة العلاقات التي تعترِف بالآخرين وتقبَلهم في كرامتهم غير القابلة للمساومة، وهو ثمرة التّعاون والالتزام في السّعي لتحقيق التّنمية المتكاملة لجميع الأشخاص وجميع الشّعوب.

صلاتي في بداية السّنة الجديدة هي أنّ التّطوّر السّريع لأشكال الذّكاء الاصطناعيّ لا يزيد من عدم المساواة والمظالم الكبيرَة الموجودَة أصلًا في العالم، بل يساهم في وضع حدّ للحروب والصّراعات، ويخفّف من أشكال الآلام الكثيرة التي تبتلي الأسرة البشريّة. أتمنّى أن يتعاون المؤمنون المسيحيّون، والمؤمنون من مختلف الدّيانات، والرّجال والنّساء ذوو الإرادة الصّالحة، كلّهم منسجمين معًا، ليغتنموا الفرص ويواجهوا التّحدّيات التي تثيرها الثّورة الرّقميّة، وليسلّموا الأجيال القادمة عالمًا فيه مزيد من التّضامن والعدل والسّلام.

 

من حاضرة الفاتيكان، يوم 8 كانون الأوّل/ديسمبر من عام 2023.

 

***********

© جميع الحقوق محفوظة – حاضرة الفاتيكان 2023

 


[1] رقم 33.

[2]  المرجع نفسه، رقم 57.

[3] رسالة عامّة بابويّة، كُنْ مُسَبَّحًا (24 أيار/مايو 2015)، 104.

[4] راجع المرجع نفسه، 114.

[5]  لقاء مع المشاركين في لقاء ”Minerva Dialogues“ (27 آذار/مارس 2023).

[6] راجع المرجع نفسه.

[7] راجع رسالة إلى الرّئيس التّنفيذي ”للمنتدى الاقتصادي العالمي“ في دافوس-كلوسترز (12 كانون الثّاني/ يناير 2018).

[8] راجع رسالة عامّة بابويّة، كُنْ مُسَبَّحًا، 194؛ كلمة للمشاركين في ندوة ”الخير العام في العصر الرّقمي“ (27 أيلول/سبتمبر 2019).

[9] الإرشاد الرّسوليّ، فرح الإنجيل (24 تشرين الثّاني/نوفمبر 2013)، 233.

[10] راجع رسالة عامّة بابويّة، كُنْ مُسَبَّحًا، 54.

[11] راجع كلمة للمشاركين في مؤتمر الأكاديميّة البابويّة للحياة (28 شباط/فبراير 2020).

[12] راجع المرجع نفسه.

[13] رسالة عامّة بابويّة، كلّنا إخوة - Fratelli tutti (3 تشرين الأوّل/أكتوبر 2020)، 27.

[14] راجع المرجع نفسه.

[15] راجع المرجع نفسه، 170-175.

[16] راجع رسالة عامّة بابويّة، كُنْ مُسَبَّحًا، 177.

 
 

 


Copyright © Dicastero per la Comunicazione - Libreria Editrice Vaticana