vatican media

تأثير الذّكاء الاصطناعيّ على مستقبل البشريّة

كلمة البابا فرنسيس إلى مجموعة الدّول الصّناعيّة السّبع

Share this Entry

أداة رائعة ومُرعبة

السّيّدات الأعزّاء، السّادة الكِرام!

أتوجّه اليوم إليكم، أنتم قادة المنتدى الحكوميّ الدّوليّ لمجموعة الدّول الصّناعيّة السّبع، وأفكّر في تأثير الذّكاء الاصطناعيّ على مستقبل البشريّة.

“يقول الكتاب المقدّس أنّ الله أعطى الإنسان روحه ليملأه ”مَهارةً وفَهْمًا ومَعرِفةً بِجَميعِ الصَّنائع“ (خروج 35، 31)” [1]. العِلم والتّكنولوجيا هما نتاجان فائقان لقدرة الإنسان الإبداعيّة [2].

ومن استخدامنا لهذه الإمكانات الإبداعيّة التي وهبها الله لنا، وُلِدَ الذّكاء الاصطناعيّ.

وهذا الذّكاء، كما هو معروف، هو أداة قديرة جدًّا، تُستخدم في مجالات عديدة من مجالات العمل الإنسانيّ: في الطّب وعالم العمل، والثّقافة ومجال الاتّصال، والتّربية والسّياسة. ويجوز لنا الآن أن نفترض أنّ استخدامه سيزداد أثره دائمًا في أسلوب حياتنا، وفي علاقاتنا الاجتماعيّة، وسيؤثّر في المستقبل حتّى على الطّريقة التي بها نُدرك هويّتنا ككائنات بشريّة [3].

لموضوع الذّكاء الاصطناعيّ نتيجتان: من جهة، يثير حماسنا بسبب الإمكانيّات التي يقدّمها، ومن جهة أخرى يُولِّد فينا المخاوف بسبب العواقب التي يمكن أن يؤدّي إليها. ويمكن أن نقول إنّنا كلّنا نشعر بهذَين الشّعورَين، ولو بدرجات مختلفة: نحن متحمّسون عندما نتصوَّر التّقدّم الذي يمكن أن يأتينا مع الذّكاء الاصطناعيّ، ولكن، في الوقت نفسه، نحن خائفون عندما نرى المخاطر المرتبطة باستخدامه [4].

علاوة على ذلك، لا يمكننا أن نشكَّ في أنّ مجيء الذّكاء الاصطناعيّ يمثّل ثورة صناعيّة حقيقيّة في المعرفة، التي سَتُسهِم في خلق نظام اجتماعيّ جديد يتّسم بتحوّلات تاريخيّة معقدة. على سبيل المثال، يمكن للذّكاء الاصطناعيّ أن يسمح بنوع من الدّيمقراطيّة في الوصول إلى المعرفة، وفي التّقدّم المتسارع للبحث العلميّ، وإمكانيّة تفويض الأعمال الشّاقّة للآلات، وفي الوقت نفسه، يمكن أن يحمل معه ظُلمًا أكبر لبعض الدّول النّامية بالنّسبة للدّول المتقدّمة، وبين الطّبقات الاجتماعيّة المُسيطرة والطّبقات الاجتماعيّة المُظلومة، فيعرِّض للخطر إمكانيّة ”ثقافة اللقاء“ بتأييده لــ”ثقافة الإقصاء“.

من الواضح أنّ قدرة هذه التّحوّلات المتعدّدة والمعقدة مرتبطة بالتّطوّر التكنولوجيّ السّريع للذّكاء الاصطناعيّ نفسه.

هذا التّقدّم التكنولوجيّ القويّ نفسه، يجعل من الذّكاء الاصطناعيّ أداة جذّابة ومُخيفة في الوقت نفسه، ويقتضي منّا أن نرتفع بتفكيرنا على المستوى المطلوب.

في هذا المجال، يمكن أن نبدأ من هذه الملاحظة أن الذّكاء الاصطناعيّ هو أوَّلًا أداة. ومن الطّبيعي أن نؤكّد أنّ الفوائد أو الأضرار التي سيحملها إلينا تعتمد على استخدامنا له.

هذا صحيح بالتّأكيد، لأنّه هكذا كان الأمر بالنّسبة لكلّ أداة صنعها الإنسان منذ فجر التّاريخ.

قدرتنا هذه على بناء الأدوات، بكمّيّات وإمكانيّات معقدة لا مثيل لها بين الكائنات الحيَّة، تجعلنا نتكلّم على ارتباط عميق بين التّكنولوجيّة والإنسان: حافظ الإنسان دائمًا على علاقته مع البيئة بوساطة الأدوات التي كان ينتجها تدريجيًّا. لا يمكننا أن نفصل تاريخ الإنسان والحضارة عن تاريخ هذه الأدوات. أراد أحدهم أن يرى في كلّ ذلك نوعًا من النّقص، والعَجز، عند الإنسان، كما لو أنّه كان مُجبرًا على أن يُحيي التّكنولوجيا، بسبب هذا النّقص [5]. في الواقع، النّظرة المتأنّية والموضوعيّة تبيّن لنا العكس. نحن نعيش في وضع يربطنا بما هو أكثر من حياتنا الطّبيعيّة، نحن كائنات في حالة عدم توازن تطلب ما هو خارج عنّا، بل نحن منجذبون بحكم طبيعتنا إلى ما هو أبعد منا. وهنا نجد أصلَ انفتاحنا على الآخرين وعلى الله، وهنا تولد الإمكانات الإبداعيّة لذكائنا من حيث الثّقافة والجمال، وأخيرًا، هنا نجد أصل قدرتنا التّقنيّة. إذًا، التّكنولوجيا هي أثر لهذه الظّاهرة فينا: أنّنا منجذبون إلى أبعد مما فينا.

لكن استخدامنا لأدواتنا ليس دائمًا موجّهًا إلى الخير. حتّى وإن كان الإنسان يشعر في داخله بأنّه مدعُوٌّ إلى ما هو أبعد منه، وإلى المعرفة التي يستخدمها كأداة لعمل الخير في خدمة الإخوة والأخوات والبيت المشترك (راجع فرح ورجاء، 16)، فإنّه لا يتخذ في عمله دائمًا هذا التوجّه إلى الخير. بل، ليس من النّادر أنّ الإنسانيّة ضلَّت أهداف وجودها، بفضل نفس حرّيّتها الأساسيّة فيها، تحوّلت إلى عدوّة لنفسها وللكوكب [6]. يمكن أن يكون للأدوات التّكنولوجيّة المصير نفسه. ستبيّن الأدوات التّكنولوجيّة عظمة الإنسان وكرامته الفريدة، بل أيضًا التّفويض الذي كلّفه به الله ”ليفلح ويحرس“ (راجع تكوين 2، 15) الكوكب وكلّ سكّانه، إذا توفّرت ضمانات أكيدة لإبقاء الأدوات التّكنولوجيّة في خدمة الإنسان. الكلام على التّكنولوجيا يعني الكلام على معنى أن نكون بشرًا، وبالتّالي على حالتنا الفريدة بين الحرّيّة والمسؤوليّة، أي الكلام على الأخلاق.

في الواقع، عندما كان أجدادنا يصقلون حجر الصّوان ليصنعوا السّكاكين، كانوا يستخدمونها لقطع الجلود وصنع الملابس، وكذلك لقتل بعضهم البعض. يمكننا أن نقول الأمر نفسه عن التّقنيّات الأخرى المتطوّرة، مثل الطّاقة النّاتجة عن دمج الذّرات كما يحدث في الشّمس، والتي يمكننا أن نستخدمها بالتّأكيد لإنتاج طاقة نظيفة ومتجدّدة وأيضًا لنحوّل كوكبنا إلى كومة رماد.

مع ذلك، فإن الذّكاء الاصطناعيّ أداة أكثر تعقيدًا. يمكن القول إنّه أداة فريدة من نوعها. وهكذا، في حين أنّ استخدام أداة بسيطة (مثل السّكين) يكون تحت سيطرة الإنسان الذي يستخدمها، وصلاح الاستخدام مرتبط بالإنسان فقط، فإنّ الذّكاء الاصطناعيّ، يمكن أن يتكيّف بشكل مستقلّ بحسب المهمّة التي تحدَّد له، وهو يقوم باختيارات مستقلّة عن الإنسان ليصل إلى الهدف المحدّد له، إن تمّ تصميمه بهذه الطّريقة [7].

من الجدير بالذّكر أنّ الآلة يمكنها، في بعض الصّور وبواسطة الوسائل الجديدة، أن تُنتج خيارات خوارزميّة. ما تقوم به الآلة هو عبارة عن اختيار تقنيّ بين احتمالات عديدة، ويرتبط اختيارها إمّا بمعايير محدّدة جيّدًا أو بإملاءات إحصائيّة. وأمّا الإنسان، فإنّه لا يختار فقط، بل هو قادر في قلبه على اتّخاذ القرار. ويمكن أن نقول إنّ القرار أكثر من الاختيار، وهو عنصر استراتيجيّ يتطلّب منّا تقييمًا عمليًّا. أحيانًا، وغالبًا في مهمّة الحكم الصّعبة، نحن مدعوّون إلى أن نتّخذ قرارات لها نتائج، أيضًا فيما يخصّ أشخاصًا كثيرين. في هذا الصّدد، تكلّم التّفكير البشريّ دائمًا على الحكمة، وعلى حكمة الفلسفة اليونانيّة (phronesis)، وعلى حكمة الكتاب المقدّس، ولو جزئيًّا. أمام معجزات الآلات، التي تبدو لنا أنّها تعرف أن تختار بشكل مستقلّ، يجب أن يكون واضحًا لنا أنّ القرار يجب أن يبقى دائمًا للإنسان، حتّى في الظّروف المأسويّة والمُلِحّة التي يجب اتخاذ القرار فيها. إن سلبنا الأشخاص قدرتهم على اتّخاذ القرار بشأن أنفسهم وبشأن حياتهم، وحكمنا عليهم بأن يكونوا خاضعين لاختيارات الآلات، فإنّنا نحكم على البشريّة بمستقبل لا رجاءَ فيه. يجب أن نضمن ونحمي مساحة كبيرة لسيطرة الإنسان على عمليّة اختيار برامج الذّكاء الاصطناعيّ: فالكرامة الإنسانيّة نفسها مرهونة بذلك.

حول هذا الموضوع، اسمحوا لِي بأن أؤكّد ما يلي: في مأساة مثل مأساة الصّراعات المسلّحة، من المُلحّ أن نفكّر من جديد في تطوير واستخدام أجهزة مثل التي تُسمّى ”الأسلحة القتالة المستقلّة “ لكي نحظر استخدامها، ونبدأ بالتزام عمليّ وملموس لكي نُدخل سيطرة الإنسان المهمّة بشكل أكبر دائمًا. لا يجوز على الإطلاق أن يُترك القرار لأيّ آلة في القضاء على حياة إنسان.

علاوة على ذلك، علينا أن نضيف أنّ الاستخدام الجيّد، وعلى الأقلّ للأشكال المتقدّمة من الذّكاء الاصطناعيّ، لن يكون تحت السّيطرة الكاملة، لا تحت سيطرة المستخدمين ولا المبرمجين الذين حدّدوا أهدافها الأصليّة في لحظة البرمجة. هذا صحيح، وصحيح أيضًا ومحتمل جدًّا، أنّ برامج الذّكاء الاصطناعيّ ستتمكّن في مستقبل غير بعيد من أن تتواصل مباشرة بعضها مع بعض لكي تحسّن أدائها. الإنسان القديم الذي صنع أدوات بسيطة في الماضي، رأى أنّ حياته صارت مرتبطة بها، – فالسّكين الذي صنعه سمح له بأن يبقى على قيد الحياة في البرد، وأيضًا بأن يطوّر فنّ الحرب – واليوم، يصنع الإنسان أدوات معقدة وسيرى حياته تتأثّر بها بصورة متزايدة [8].

الآليّة الأساسيّة للذّكاء الاصطناعيّ

أودّ الآن أن أتوقّف قليلًا عند مدى تعقيد الذّكاء الاصطناعيّ. الذّكاء الاصطناعيّ في أساسه هو أداة مصمّمة من أجل حلّ مشكلة، وتعمل عن طريق سلسلة منطقيّة من العمليّات الجبريّة، التي تتمّ على فئات من البيانات، وتتمّ مقارنتها لاكتشاف الارتباطات فيما بينها، وتحسين قيمتها الإحصائيّة، بفضل تعَلُّم ذاتيّ، قائم على البحث عن مزيد من البيانات وعلى التّعديل الذّاتيّ لعملياته الحسابيّة.

إذًا، الذّكاء الاصطناعيّ مصمّم لحلّ مشاكل محدّدة، لكن، الذين يستخدمونه معرَّضون غالبًا لتجربة لا تقاوم، وهي أن يستخلصوا من الحلول الدّقيقة المحدّدة له استنتاجات عامّة، وحتى ذات طبيعة أنثروبولوجيّة.

مثال على ذلك، استخدام البرامج المصمّمة لمساعدة القُضاة في اتّخاذ القرارات المتعلّقة بالإقامة القسريّة للسّجناء الذين يقضون عقوباتهم في مؤسسة السّجون. في هذه الحالة، يطلبون من الذّكاء الاصطناعيّ أن يتنبّأ باحتماليّة وقوع المحكوم عليه في الجرم ثانية، وذلك بناءً على فئات من البيانات المحدّدة مسبقًا (نوع الجريمة، والسّلوك في السجن، والتّقييم النّفسيّ وغيرها)، ويُسمَح للذّكاء الاصطناعيّ بالوصول إلى فئات من البيانات المتعلّقة بالحياة الخاصّة للسّجين (الأصل العرقيّ، والمستوى التعليميّ، وبيئة الائتماء وغير ذلك). إنّ استخدام مثل هذه المنهجيّة – التي تضع بين يدي الآلة، بحكم الأمر الواقع، الكلمة الأخيرة حول مصير الشّخص – يمكن أن يتضمّن أيضًا إمكانيّة التأثّر بأحكام سابقة متأصّلة في فئات البيانات التي يستخدمها الذّكاء الاصطناعيّ.

الإنسان المصنّف في مجموعة عرقيّة معيّنة، أو مَثَلٌ أبسط، ارتكاب مخالفة صغيرة قبل سنوات (مثلًا، عدم دفع المخالفة للوقوف في مكانٍ ممنوع)، سيؤثّر في الواقع على القرار المتعلّق في تحديد الإقامة القسريّة. لأنّ الإنسان في تطوّر دائم، وهو قادر أن يفاجئ بأفعاله، وهذا أمرٌ لا تستطيع الآلة أن تأخذه بعين الاعتبار.

يجب أن نعرف أيضًا أنّ التّطبيقات الشّبيهة للحالات المذكورة سابقًا، ستتطوّر بسرعة لأنّ برامج الذّكاء الاصطناعيّ ستكون مجهّزة دائمًا بقدرة أكبر على التّفاعل المباشر مع الكائن البشريّ (chatbots)، فتُجري محادثات معهم وتُقيم معهم علاقات وثيقة، غالبًا مُمتعة ومطمئنة جدًّا، إذ سيتمّ تصميم برامج الذّكاء الاصطناعيّ هذه لكي تتعلّم أن تُجيب، وبشكلٍ شخصيّ، على احتياجات البشر الجسديّة والنّفسيّة.

أن ننَسى أنّ الذّكاء الاصطناعيّ ليس إنسانًا آخر، وأنّه لا يستطيع أن يقترح مبادئ عامّة، هذا غالبًا خطأ جسيم ينجم عن حاجة الإنسان العميقة لأن يجد شكلًا ثابتًا من المرافقة، أو عن بديل لها افتراضيّ ولاواعيّ، أو عن الافتراض أنّ البيانات التي يمكن الحصول عليها من الآلآت الحاسبة، لها صفات حقيقيّة لا جدال فيها وهي شاملة ولا شكّ فيها.

مع ذلك، هذا الافتراض فيه مجازفة، كما يبيّن ذلك فحص الحدود الدّاخليّة للحساب نفسه. الذّكاء الاصطناعيّ يستخدم عمليّات جبريّة تتمّ بحسب عمليات منطقيّة (مثلًا، إذا كانت قيمة X أكبر من قيمة Y، فيجب ضرب X في Y، وإلّا فيجب قسمة X على Y). طريقة الحساب هذه – التي تسمّى ”الخوارزميّة“ – لا تتمتّع لا بالموضوعيّة ولا بالحِيَاد [9]. في الواقع، كونه يقوم على الجَبِر، فهو لا يمكنه أن يفحص إلّا الحقائق التي صِيغَت بطريقة رقميّة [10].

علاوة على ذلك، يجب ألّا ننسى أنّ الخوارزميّات المصمّمة لحلّ المشكلات المعقّدة كثيرًا، هي حديثة ومتطوّرة جدًّا، بحيث يصعب على المبرمجين أنفسهم أن يفهموا بالضّبط كيف يمكن لهذه الخوارزميّات أن تحقّق نتائجها. هذا الاتّجاه نحو التّطوّر يهدّد بالتّسارع بشكل كبير وأن يُدخل أجهزة كمبيوتر كموميّة التي لن تعمل مع الدّوائر الثنائيّة (أشباه المُوصِلَات أو الرّقائق الدّقيقة)، بل بحسب قوانين فيزياء الكمّ المعقّدة إلى حدٍّ ما. من ناحية أخرى، الإدخال المستمرّ للرّقائق الدّقيقة والعالية الأداء دائمًا صار أحد أسباب هيمنة استخدام الذّكاء الاصطناعيّ من قِبَل الدّول القليلة التي تمتلكه.

سواء كانت متطوّرة أم لا، فإنّ جَودة الإجابات التي تقدّمها برامج الذّكاء الاصطناعيّ تعتمد في نهاية الأمر على البيانات التي تستخدمها وكيفيّة تنظيمها لها.

أخيرًا، أسمح لنفسي أن أُشير إلى مجال أخير فيه يظهر بوضوح تعقيد آليّة ما يسمّى بالذّكاء الاصطناعيّ التّوليديّ (Generative Artificial Intelligence). لا أحد يشكّ أنّه يوجد اليوم أدوات رائعة وهي في متناول اليد للوصول إلى المعرفة، التي تسمح لنا حتّى بالتّعلّم الذّاتي والتّثقيف الذّاتي في مجالات كثيرة. أُعجب الكثيرون منّا بالتّطبيقات المتاحة بسهولة عبر الإنترنت لإنشاء نصّ أو إنتاج صورة حول أيّ موضوع أو شخص. انجذب بشكل خاص إلى هذا الجانب الطّلاب الذين يستخدمونه وبصورة مبالغ فيها، عندما يجب عليهم أن يحضّروا عملًا كتابيًّا.

مع ذلك، فإنّ هؤلاء الطّلاب، الذين لهم مهارة ومقدرة على استخدام الذّكاء الاصطناعيّ أكثر من معلّميهم، ينسون أنّ ما يسمّى بالذّكاء الاصطناعيّ التّوليديّ، بالمعنى الضّيّق للكلمة، ليس ”توليديًّا“ تمامًا. في الحقيقة، هذا الأخير، يبحث عن المعلومات في البيانات الضّخمة ويصنّفها بالأسلوب الذي طُلب منه. ولا يطوّر مفاهيم أو تحاليل جديدة. بل يكرّر الذي يجده ويعطيه شكلًا جذّابًا. وكلّما وجد الفكرة أو الفرضية أنّها تكرّرت، كلّما اعتبرها شرعيّة وصحيحة. إذًا، هذا الذّكاء، أكثر من أنّه ”توليديّ“، هو ”داعم ومعزّز“، بمعنى أنّه يعيد ترتيب المحتويات الموجودة، ويساعد على ترسيخها، ولا يتحقّق غالبًا هل تحتوي على أخطاء أو أحكام مسبقة.

بهذه الطّريقة، ليس الخطر فقط في إعطاء شرعيّة لأخبار كاذبة، وتقوية الثّقافة المهَيمنة، بل الخطر أيضًا في أن نقوّض العملية التربويّة في مهدها. التّربية التي ينبغي أن تزوّد الطّلاب بإمكانيّة التّفكير الحقيقيّ، يمكن بذلك أن تصير تكرارًا للمفاهيم، التي سيتمّ تقييمها دائمًا أكثر على أنّها لا تقبل الجدل، وذلك ببساطة بسبب إعادة اقتراحها المستمرّ [11].

إعادة كرامة الإنسان إلى المركز من أجل رؤية أخلاقيّة مشتركة

يجب الآن أن نضيف إلى ما قيل سابقًا ملاحظة أكثر عموميّة. في الواقع، فإنّ وقت التّجديدات التّكنولوجيّة التي نشهدها اليوم يصاحبها وضع اجتماعيّ خاص وغير مسبوق: فقد أصبح من الصّعب بصورة متزايدة التّوصّل إلى اتفاقات بشأن القضايا الرّئيسيّة في الحياة الاجتماعية. وحتّى في الجماعات التي تتميّز ببعض الاستمراريّة الثّقافيّة، تنشأ أحيانًا مناقشات ومواجهات ساخنة تجعل من الصّعب إنتاج أفكار وحلول سياسيّة مشتركة تهدف إلى البحث عن ما هو جيِّد وصحيح. وما عدا التّعقيد المشروع في الرّؤى التي تمِّيز الأسرة البشريّة، يظهر اليوم عامل يبدو أنّه مشترك بين هذه الحالات المختلفة، وهو غياب أو ضياع الحس الإنسانيّ وتضاؤل واضح لمفهوم الكرامة الإنسانيّة [12]. يبدو أنّ القيمة والمعنى العميق لإحدى الفئات الأساسيّة في الغرب قد ضاعت: وهي فئة الإنسان. ففي هذا العصر الذي تشكّك فيه برامج الذّكاء الاصطناعيّ في الإنسان وأعماله، فإنّ ضعف الرّوح المرتبطة بإدراك قيمة وكرامة الإنسان توشك بأن تكون أكبر نقطة ضعف في التّنفيذ والتّطوير لهذه الأنظمة. في الواقع، يجب ألّا ننسى أنّه لا يوجد ابتكار محايد. لقد وُلدت التّكنولوجيا لهدف، وبتأثيرها على المجتمع البشريّ، تمثّل دائمًا شكلًا من أشكال النّظام في العلاقات الاجتماعيّة وموقعًا من السّلطة، وتجعل البعض قادرًا على القيام ببعض الأعمال وتمنع البعض الآخر من القيام بأعمال أخرى. هذا المكوِّن السّلطوي في التّكنولوجيا يتضمّن دائمًا، بطريقة أكثر أو أقلّ وضوحًا، الرّؤية العالميّة للذين أنشأوها وطوّروها.

وهذا ينطبق أيضًا على برامج الذّكاء الاصطناعيّ. ولكي تكون هذه البرامج أدوات لبناء الخير ولبناء غد أفضل، لا بدّ من توجيهها دائما إلى خير كلّ إنسان. يجب أن يكون فيها إلهام أخلاقيّ.

القرار الأخلاقيّ، في الواقع، هو القرار الذي يأخذ بعين الاعتبار ليس فقط نتائج الفعل، بل أيضًا القِيَم المعرضة للخطر والواجبات النّاجمة من هذه القِيَم. ولهذا السّبب رحّبت بالتّوقيع في روما، في سنة 2020، على ”نداء روما لأخلاقيّات الذّكاء الاصطناعيّ“ [13] ودعمه لهذا الشّكل من التّنظيم الأخلاقيّ للخوارزميات وبرامج الذّكاء الاصطناعيّ الذي أسميته ”أخلاقيّات الخوارزميات“ [14] (algoretica). في سياق تعددي وعالمي، حيث تظهر حساسيات مختلفة وتراتبيات متعدّدة في سُلَّم القِيَم، قد يبدو من الصّعب أن نجد سُلَّمًا واحدًا للقِيَم. ولكن في التّحليل الأخلاقي يمكن أن نستخدم أنواعًا أخرى من الأدوات: إن كان يصعب علينا أن نحدّد سُلَّمًا واحدًا عالميًّا للقِيَم، يمكنّنا مع ذلك أن نجد مبادئ مشتركة يمكنّنا بها مواجهة وحلّ معضلات أو صراعات الحياة.

ولهذا السّبب كان ”نداء روما“: في المصطلح ”أخلاقيّات الخوارزميات“ (algoretica) تكمن سلسلة من المبادئ تصلح أن تكون منصّة عالميّة ومتعدّدة قادرة على أن تجد الدّعم من الثّقافات والأديان والمنظمات الدّوليّة والشّركات الكبرى المدافعة عن هذا التّطوّر.

السّياسة التي نحتاج إليها

لذلك، لا يمكننا أن نخفي الخطر العمليّ، الكامن في الآليّة الأساسيّة التي بها يعمل الذّكاء الاصطناعيّ وهو أنّه يحصر رؤيّة العالم في واقع يمكن التّعبير عنه بالأرقام وبقوالب فكريّة معدّة مسبقًا، ويستثني مساهمة أشكال أخرى من الحقيقة والواقع، ويفرض نماذج أنثروبولوجيّة، اجتماعيّة واقتصاديّة، وثقافيّة موحدة. ومن ثمّ فإنّ النّموذج التّكنولوجيّ الذي يجسده الذّكاء الاصطناعيّ يوشك أن يفسح المجال لنموذج أكثر خطورة، والذي حدّدته من قبل باسم ”النّموذج التّكنوقراطي“ [15]. ولا يمكنّنا أن نسمح لأداة بمثل هذه القدرة، أي الذّكاء الاصطناعيّ، وفي الوقت نفسه لا نقدر أن نستغني عنها، بفرض مثل هذا النّموذج، بل يجب أن يكون الذّكاء الاصطناعيّ نفسه هو الأداة التي نستخدمها لمنع ذلك.

وهنا لا بدّ من العمل السّياسي، كما تذكّرنا الرّسالة العامّة، كلّنا إخوة- Fratelli tutti. بالتّأكيد “إنّ كلمة ”سياسة“ بالنّسبة للكثيرين اليوم هي كلمة مرفوضة، ولا يمكنّنا إلّا أن نرى أنّ سبب ذلك هو وجود أخطاء لبعض السّياسيّين وفساد وعدم كفاءة. يُضاف إلى ذلك الاستراتيجيّات التي تسعى إلى إضعافها أو استبدالها بالاقتصاد أو الهيمنة عليها عبر بعض الأيديولوجيّات. ومع كلّ ذلك، هل يمكن للعالم أن يسير دون سياسة؟ هل يمكن أن نجد سبيلًا فعّالًا يؤدّي إلى الأخوّة الشّاملة والسّلام الاجتماعيّ دون سياسة صالحة؟” [16].

جوابنا على هذه الأسئلة الأخيرة هو: لا! السّياسة مطلوبة! أريد أن أؤكّد مجدّدًا في هذه المناسبة أنّه “أمام العديد من الأشكال السّياسية الضّيّقة أو السّاعية إلى الرّبح الفوري، […] عظمة السّياسية تظهر، خصوصًا في الأوقات الصّعبة، حين يتمّ تطبيق المبادئ الكبيرة والتّفكير بالخير العام على المدى البعيد. لكنَّ السّلطة السّياسيّة تجد صعوبة بالغة في قبول هذا الواجب ضمن مشروع وطني، وتحقيقه أصعب ضمن مشروع مشترك للبشريّة الحاليّة والمستقبليّة” [17].

السّيّدات الأعزّاء، السّادة الكِرام!

تفكيري هذا في تأثيرات الذّكاء الاصطناعيّ على مستقبل البشريّة يقودنا إلى النّظر في أهميّة ”السّياسة السّليمة“ حتّى ننظر إلى مستقبلنا بأمل وثقة. وكما قلت من قبل في مكان آخر، فإنّ “المجتمع العالميّ يعاني من أوجه قصور هيكليّة خطيرة لا يمكن حلّها بالتّرقيع أو بحلول سريعة عرضيّة. هناك أشياء يجب أن تتغيّر بعمليّة إعادة تفكير أساسيّة وتحوّلات رئيسيّة. السّياسة السّليمة وحدها تستطيع أن تقود هذا التّغيير، فتُشرِك القطاعات المختلفة والمعرفة على تنوّعها. وبهذه الطّريقة، يستطيع الاقتصاد المندمج في مشروع سياسيّ واجتماعيّ وثقافيّ وشعبيّ، الذي يسعى إلى الخير العام، أن يفتح ”الطّريق نحو فُرصٍ مُختلفةٍ، لا تستوجب الحدّ من الإبداع البشريّ ومن حلمه بالتّقدّم، بل تحتاج إلى توجيه هذه الطّاقة بأسلوب جديد“ ( كُن مُسَبَّحًا، 191)” [18].

وهذا الكلام ينطبق على الذّكاء الاصطناعيّ. ويجب على كلّ واحد أن يستخدمه بصورة صالحة، ويجب على السياسة أن تهيِّئ الظّروف التي تجعل هذا الاستخدام الجيِّد ممكنًا ومثمرًا.

شكرًا.

***********

© جميع الحقوق محفوظة – حاضرة الفاتيكان 2024


[1] رسالة في اليوم العالمي السّابع والخمسين للسّلام، الأوّل من كانون الثّاني/يناير 2024.

[2]راجع المرجع نفسه.

[3]راجع المرجع السّابق، 2.

[4]أشار البابا القدّيس بولس السّادس مُسبقًا إلى هذا التّناقض في كلمته إلى العامِلِين في مركز: Centro Automazione Analisi Linguistica dell’Aloysianum، في 19 حزيران/يونيو 1964.

[5] Cfr A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo, Milano 1983, 43.

[6]رسالة عامّة بابويّة، كُنْ مُسَبَّحًا (24 أيّار/مايو 2015)، 102-114.

[7] رسالة في اليوم العالمي السّابع والخمسين للسّلام، الأوّل من كانون الثّاني/يناير 2024، 3.

[8] استنتاجات مارشال ماكلوهان وجون إم كولكين في ما يختص بنتائج استخدام الذّكاء الاصطناعيّ لها أهميّة واضحة.

[9]راجع كلمة إلى المشاركين في الجلسة العامّة للأكاديميّة البابوية للحياة، 28 شباط/فبراير 2020.

[10]راجع رسالة في اليوم العالمي السّابع والخمسين للسّلام، الأوّل من كانون الثّاني/يناير 2024، 4.

[11]راجع المرجع نفسه، 3 و 7.

[12]راجع دائرة عقيدة الإيمان، إعلان كرامة الإنسان (2 نيسان/أبريل 2024).

[13] راجع كلمة إلى المشاركين في الجلسة العامّة للأكاديميّة البابوية للحياة، 28 شباط/فبراير 2020.

[14] راجع كلمة إلى المشاركين في مؤتمر ”تعزيز كرامة الطّفل الرّقمية – من المفهوم إلى العمل“، 14 تشرين الثاني/نوفمبر 2019؛ كلمة إلى المشاركين في الجلسة العامّة للأكاديمية البابويّة للحياة، 28 شباط/فبراير 2020.

[15]للحصول على تفسير أوسع، أشير إلى رسالتي العامّة ” كُنْ مُسَبَّحًا“ في العناية بالبيت المشترك الصّادرة في 24 أيار/مايو 2015.

[16]رسالة بابوية عامة، كلّنا إخوة-Fratelli tutti، في الأخوّة والصّداقة الاجتماعيّة (3 تشرين الأوّل/أكتوبر 2020)، 176.

[17] المرجع السّابق، 178.

[18] المرجع السّابق، 179.


Copyright © Dicastero per la Comunicazione – Libreria Editrice Vaticana

Share this Entry

ZENIT Staff

فريق القسم العربي في وكالة زينيت العالمية يعمل في مناطق مختلفة من العالم لكي يوصل لكم صوت الكنيسة ووقع صدى الإنجيل الحي.

Help us mantain ZENIT

إذا نالت هذه المقالة اعجابك، يمكنك أن تساعدنا من خلال تبرع مادي صغير