أيّها الإخوة والأخوات الأعزّاء،
الوجه والصّوت ميزتان فريدتان ومميَّزتان لكلّ إنسان. إنّهما يعبّران عن هويّته الفريدة التي لا شبيه لها، وهما العنصر الأساسيّ لكلّ لقاء. كان القُدماء يعرفون ذلك جيّدًا. لذلك، لتعريف الإنسان استخدم الإغريق القدماء كلمة ”وجه“ (πρόσωπον)، التي تعني لغويًّا ”ما يقف أمام النّظر“، أي مكان الحضور والعلاقة. أمّا المصطلح اللاتينيّ ”الإنسان-persona“ (da per-sonare) فيعني الصّوت: ليس أيّ صوت، بل صوت إنسان متميّز عن غيره.
الوجه والصّوت مقدّسان. أعطانا إيّاهما الله الذي خلقنا على صورته ومثاله ودعانا إلى الحياة بالكلمة التي وجّهها إلينا هو نفسه. كلمة تردّد صداها أوّلًا عبر القرون في أصوات الأنبياء، وصارت في ملء الزّمان بشرًا. هذه الكلمة، هذا التّواصل معنا الذي يقوم به الله في ذاته، استطعنا أيضًا أن نسمعه ونراه مباشرة (راجع 1 يوحنّا 1، 1-3)، لأنّه عرّف عن نفسه في صوت ووجه يسوع، ابن الله.
منذ لحظة الخلق، أراد الله الإنسان مخاطبًا له، وكما قال القدّيس غريغوريوس النّيصي، [1] فقد طبع على وجهه انعكاسًا للمحبّة الإلهيّة، حتّى يقدر أن يعيش إنسانيّته كاملة بالمحبّة. ومن ثَمَّ، المحافظة على الوجه والصّوت في الإنسان يعني المحافظة على هذا الوَسم، وهذا الانعكاس، وَسمُ محبّة الله الذي لا يُمحى. لسنا نوعًا مكوّنًا من خوارزميّات بيولوجيّة كيميائيّة محدّدة مسبقًا. كلّ واحدٍ منّا له دعوة لا تُبدَّل ولا مثيل لها، تنكشف في الحياة وتظهر في التّواصل مع الآخرين.
التّكنولوجيا الرّقميّة، إن لم نحمِ أنفسنا منها، فإنّها تهدّد بأن تغيِّر بعض ركائز الحضارة الإنسانيّة الأساسيّة بشكل جذريّ، حتّى التي نعتبرها أحيانًا من المسلّمات. بأسلوب تمويه الأصوات والوجوه البشريّة، والحكمة والعِلم، والإدراك والمسؤوليّة، والتّعاطف والصّداقة، فإنّ الأنظمة المعروفة باسم الذّكاء الاصطناعيّ لا تتدخل فقط في نظم المعلومات البيئيّة، بل تغزو أيضًا أعمق مستوى من التّواصل، وهو العلاقة بين البشر.
لذا، فإنّ التّحدي ليس تقنيًّا، بل أنثروبولوجيًّا (أي إنّه واقع إنسانيّ). حِفظُ الوجوه والأصوات يعني في نهاية المطاف المحافظة على أنفسنا. تقبُّل الفُرص التي تقدّمها التّكنولوجيا الرّقميّة والذّكاء الاصطناعيّ بشجاعة وتصميم وتمييز لا يعني أن نخفي عن أنفسنا النّقاط الحَرجة والغموض والمخاطر.
لا نتخلَّ عن فكرنا
توجد أدلّة عديدة تبيِّن أنّ الخوارزميّات مصمّمة لزيادة التّفاعل على وسائل التّواصل الاجتماعيّة، وهو أمرٌ مربح للمنصّات، فهي تتجاوب مع المشاعر السّريعة، وتُهمِل في المقابل المواقف الإنسانيّة التي تحتاج إلى بعض الوقت، مثل بذل الجُهد لفهمها والتّفكير فيها. وبحصر مجموعات من النّاس في جماعات إمّا موافقة أو معارضة، هذه الخوارزميّات تُضعف القدرة على الإصغاء والتّفكير النّقدي، وتزيد الاستقطاب في المجتمع.
ويضاف إلى ذلك اعتماد ساذج وغير نقدي على الذّكاء الاصطناعيّ كأنّه ”صديق“ عليم بكلّ شيء، وموزِّع لكلّ المعلومات، وأرشيف لكلّ ذاكرة، و”مرجع“ لكلّ نصيحة. كلّ ذلك يمكنه أن يزيد من ضعف قدرتنا على التّفكير التّحليليّ والإبداعيّ، وفهم المعاني، والتّمييز بين البنية النّحويّة وبين المعنى.
مع أنّ الذّكاء الاصطناعيّ يمكنه أن يقدّم دعمًا ومساعدة في إدارة مهام الاتّصال، فإنّ التهرّب من جهد التّفكير الشّخصيّ، والاكتفاء بالتّجميع الإحصائيّ الاصطناعيّ، يهدّد على المدى الطّويل بتآكل قدراتنا المعرفيّة والعاطفيّة والتّواصليّة.
في السّنوات الأخيرة، أخذت أنظمة الذّكاء الاصطناعيّ تتولّى بصورة متزايدة أيضًا إنتاج النّصوص والموسيقى ومقاطع الفيديو. وهكذا، بات جزء كبير من الإبداع البشريّ معرّضًا لخطر التّفكّك، وبدأ تعريفُ كُلّ مُنتَج بالعلامة”إنتاج الذّكاء الاصطناعيّ“ (Powered by AI)، ما يحوّل الأشخاص إلى مجرّد مستهلكين سلبيّين لأفكار لم يتمّ التّفكير فيها، ومنتجات مجهولة المصدر، لا مؤلّف لها، ولا حبّ فيها. وتُحصَر روائع العبقريّة الإنسانيّة في مجالات الموسيقى والفنّ والأدب في مجرّد مَيدان لتدريب الآلات.
مع ذلك، المسألة التي تهمّنا ليس ما تستطيع أو ستستطيع الآلة أن تقوم به، بل ما نستطيع نحن أن نقوم به، فننمو في الإنسانيّة والمعرفة، باستخدام حكيم لأدوات قديرة وُضعت في خدمتنا. كان الإنسان منذ البدء مُعرّضًا لتجربة امتلاك ثمر المعرفة من دون عناء الالتزام، والبحث، والمسؤوليّة الشّخصيّة. لكنّ التخلّي عن العمليّة الإبداعيّة، وتسليم الآلات وظائفنا الذهنيّة وخيالنا، يعني دفن المواهب التي نلناها لكي ننمو كأشخاص في علاقتنا مع الله ومع الآخرين، يعني أن نُخفي وجهنا، وأن نُسكت صوتنا.
نكون أو نتظاهر: تمويه العلاقات والواقع
وأثناء قراءتنا لتدفّق المعلومات (feed)، يصير من الصّعب علينا أن نفهم هل نحن نتفاعل مع بشر آخرين أم مع ”روبوتات“ أو ”مؤثّرين افتراضيّين“. فالتدخّلات غير الشفّافة لتلك البدائل المؤتمنة تؤثّر في النّقاشات العامّة وفي خيارات النّاس. ولا سيّما ”روبوتات الدّردشة“ (chatbot) القائمة على نماذج لغويّة كبيرة (LLM)، تظهر فعّاليتها المدهشة في الإقناع الخفيّ، عبر تحسين مستمرّ للتفاعل الشّخصيّ. فبنية الحوار والتكيّف والمُحاكاة لهذه النّماذج قادرة على تقليد المشاعر الإنسانيّة، وبالتّالي على محاكاة علاقة إنسانيّة. وهذا التشبُّه بالإنسان، الذي قد يرضينا أحيانًا، هو في الوقت نفسه خداع، ولا سيّما للأشخاص الضّعفاء. لأن ”روبوتات الدّردشة“ التي تصمّم لتكون ”حنونة“ على نحو مفرط، إلى جانب كونها حاضرة ومتاحة دائمًا، قد تتحوّل إلى مهندسين خفيّين لحالاتنا العاطفيّة، فتغزو بذلك خصوصياتنا وتحتلّنا من الدّاخل.
التّكنولوجيا التي تستغلّ حاجتنا إلى العلاقة يمكن أن تخلّف آثارًا مؤلمة على مصائر الأفراد، بل يمكنها أيضًا أن تلحق ضرّرًا بالنّسيج الاجتماعيّ والثقافيّ والسّياسيّ للمجتمعات. ويحدث ذلك عندما نستبدل العلاقات مع الآخرين بعلاقات بحسب أنظمة الذّكاء الاصطناعي المُدرَّبة على تصنيف أفكارنا، وبناء عالم من المرايا من حولنا، حيث يُصاغ كلّ شيء ”على صورتنا ومثالنا“. وبهذا نسمح بأن تُسلب منّا فرصة لقاء الآخر، الذي هو دائمًا مختلف عنّا، والذي ينبغي لنا أن نتعلّم التّفاعل معه. فبدون قبول الآخر، لا يمكن أن تكون هناك علاقة ولا صداقة.
تحدٍّ آخر كبير تطرحه هذه الأنظمة الطّارئة هو مسألة التّحريف (biasفي اللغة الإنجليزيّة) أي تجعلنا نكتسب وننقل إدراكًا مشوَّهًا للواقع. الأنماط في الذّكاء الاصطناعيّ تتكوَّن وفق رؤية العالم لدى من يصمّمها، ويمكنها بدورها أن تفرض أنماطًا فكريّة بتكرار الصّور النّمطيّة والأحكام المسبقة الموجودة في البيانات التي تتغذّى منها. كما أنّ غياب الشّفافيّة في تصميم الخوارزميّات، مع ضعف التّمثيل الاجتماعيّ للبيانات، يُسهم في أن نبقى أسرى شبكات تُوجّه أفكارنا وتُديموتُعمّق أوجه اللامساواة والظّلم الاجتماعيّ القائمة.
الخطر جسيم. والقدرة على التمويه تبلغ حدًّا يجعل الذّكاء الاصطناعيّ قادرًا على أن يخدعنا بتصنيع ”وقائع“ موازية، والاستيلاء على وجوهنا وأصواتنا. ونحن مغمورون في تعدّديّة أبعاد، بات فيها التّمييز بين الواقع والخيال أكثر صعوبة.
ويُضاف إلى ذلك مشكلة غياب الدقّة. فالأنظمة التي تُسوّق الاحتمال الإحصائيّ على أنّه معرفة، لا تمنحنا في الواقع سوى تقريبات للحقيقة، قد تكون أحيانًا ”هذيانًا“ عن الحقيقة. إنّ عدم التّحقّق من المصادر، مع أزمة الصّحافة الميدانيّة التي تتطلّب عملًا متواصلًا في جمع المعلومات والتّحقّق منها في مواقع الأحداث، قد يهيّئ بيئة أكثر خصوبة للتضليل الإعلاميّ، ويُفضي إلى تنامي مشاعر عدم الثّقة، والضّياع، وانعدام الأمان.
تحالف ممكن
وخلف هذه القوّة الخفيّة الهائلة التي تشملنا جميعًا، لا يقف سوى عدد قليل من الشّركات، هي تلك التي قُدِّم مؤسّسوها مؤخرًا على أنّهم صانعو ”شخصيّة العام 2025“، أي مهندسي الذّكاء الاصطناعيّ. وهذا يثير قلقًا بالغًا بشأن السّيطرة الاحتكاريّة على الأنظمة الخوارزميّة وأنظمة الذّكاء الاصطناعيّ، القادرة على توجيه السّلوكيّات بطرق خفيّة، بل وحتّى على إعادة كتابة التّاريخ الإنسانيّ، بما في ذلك تاريخ الكنيسة، وأحيانًا بدون وعيٍ حقيقيّ بذلك.
التحدّي الذي ينتظرنا لا يكمن في إيقاف الابتكار الرّقميّ، بل في توجيهه، وفي الوعي لطبيعته المزدوجة. وعلى كلّ واحدٍ منّا أن يرفع صوته دفاعًا عن الإنسان، حتّى نتمكّن من أن نجعل هذه الأدوات حلفاء حقيقيّين لنا.
وهذا التّحالف ممكن، لكنّه يحتاج إلى أن يرتكز على ثلاثة أركان: المسؤوليّة، والتّعاون، والتّربية.
أوّلًا المسؤوليّة. يمكن أن تُعرَّف، بحسب الأدوار، بالصّدق، والشّفافيّة، والشّجاعة، وسعة الرّؤية، وواجب تقاسم المعرفة، والحقّ على المعرفة. لكنّ لا يمكن لأحد، بصورة عامّة، أن يتنصّل من مسؤوليّته أمام المستقبل الذي نبنيه اليوم.
بالنّسبة للذين يتبوّأون مواقع القيادة في المنصّات الإلكترونيّة، يعني ذلك التّأكّد من أنّ الاستراتيجيّات التّجاريّة لا تقودها اعتبارات الزّيادة في الرّبح وحدها، بل أيضًا رؤيةٌ بعيدة المدى تأخذ في الحسبان الخير العام، كما يحرص كلّ واحدٍ منهم على خير أبنائه.
ويُطلب من مبتكري ومطوّري نماذج الذّكاء الاصطناعيّ الشّفافيّة والمسؤوليّة الاجتماعيّة بشأن مبادئ التّصميم وأنظمة الإشراف التي تقوم عليها خوارزميّاتهم ونماذجهم المطوَّرة، بما يتيح للمستخدمين موافقة واعية.
وتُطلب هذه المسؤوليّة نفسها أيضًا من المشرّعين في الدّول والهيئات التّنظيميّة فوق الوطنيّة، الذين تقع على عاتقهم مهمّة السّهر على احترام كرامة الإنسان. فالتّنظيم المناسب يمكن أن يحمي الأشخاص من التعلّق العاطفيّ ”بروبوتات الدّردشة“، وأن يحدّ من انتشار المحتويات الكاذبة أو المتلاعبة أو المضلّلة، فيحافظوا على نزاهة المعلومات في وجه طرق التّشويه والخداع في استخدامها.
لا يمكن لمؤسّسات الإعلام ووسائل التّواصل الاجتماعيّة، من جانبها، أن تسمح للخوارزميّات التي تسعى إلى الفوز بأيّ ثمن ببضع ثوانٍ إضافيّة من الانتباه، بأن تَطغى على الأمانة لقيمها المهنيّة الهادفة إلى البحث عن الحقيقة. فثقة الجمهور تُبنى بالدّقّة والشّفافيّة، لا بالسّعي وراء أيّ تفاعل كان. ويجب التّمييز بين المواضيع التي يُنتجها أو يُعدّلها الذّكاء الاصطناعيّ وبين المواضيع التي يُبدعها البشر. ويجب حماية حقّ التأليف والملكيّة الفكريّة لعمل الصّحفيّين وسائر صُنّاع المحتوى. فالمعلومة خيرٌ عام. والخدمة العامّة البنّاءة والمهمّة لا تقوم على الغموض، بل على شفافيّة المصادر، وإشراك المعنيّين، ومعايير الجودة العالية.
كلّنا مدعوّون إلى التّعاون. لا يمكن لأيّ قطاع أن يواجه وحده تحدّي توجيه التّجديد الرّقمي وإدارة الذّكاء الاصطناعيّ. لذلك، من الضّروريّ أن نُنشئ آليّات حماية. وعلى جميع الأطراف المعنيّة، الصّناعة التّكنولوجيّة والمشرّعين، والشّركات المصمِّمة والعالم الأكاديميّ، والفنّانين والصّحفيّين والمنشّئين، أن يشاركوا في بناء وتفعيل مواطنة رقميّة واعية ومسؤولة.
وإلى ذلك تهدف التّربية: إلى تنمية قدراتنا الفرديّة على التّفكير النّقدي، وتقييم مصداقيّة المصادر والمصالح المحتملة الكامنة وراء اختيار المعلومات التي تصل إلينا، وفَهم الآليّات النّفسيّة التي تثيرها، وتمكين عائلاتنا وجماعاتنا وجمعيّاتنا من وضع معايير عمليّة لثقافة تؤدّي إلى المزيد من الصّحّة والمسؤوليّة.
لهذا بالتّحديد، بات من الملحّ بشكل متزايد إدخال مهارات الإعلام والمعلومات والذّكاء الاصطناعيّ في الأنظمة التّعليميّة على جميع المستويات، وهي ممارسة تبنّتها بعض المؤسّسات المدنيّة من قبل. وبصفتنا كاثوليك، يمكننا بل ويجب علينا أن نُساهم في أن يكتسب النّاس، ولا سيّما الشّباب، القدرة على التّفكير النّقدي والنّمو في الحريّة الرّوحية. وينبغي أيضًا دمج هذه المهارات في مبادرات التّعليم مدى الحياة الأوسع نطاقًا، لتشمل كبار السّن والفئات المهمّشة في المجتمع، الذين يشعرون مرارًا بالإقصاء والعجز في مواجهة التّغيّر التّكنولوجيّ السّريع.
التّثقيف في مجال وسائل التّواصل الاجتماعيّة والذّكاء الاصطناعيّ سيساعد الجميع على عدم الانجراف وراء نزعة الحلول محل القوى الإنسانيّة (deriva antropomorfizzante) التي تطبع هذه الأنظمة، بل يتعامل الجميع معها على حقيقتها كأدوات. وعلى اعتماد التحقّق الخارجي الدّائم من المصادر، التي قد تكون غير دقيقة أو خاطئة، التي توفّرها أنظمة الذّكاء الاصطناعيّ، وإلى حماية الخصوصيّة والبيانات الشّخصيّة بمعرفة معايير الأمان وآليّات الاعتراض المتاحة. من المهمّ أن نربّي أنفسنا والآخرين على استخدام الذّكاء الاصطناعيّ استخدامًا مسؤولًا، وفي هذا السّياق حماية صورتنا الشخصيّة (الصّور والمحتويات الصّوتيّة)، ووجهنا، وصوتنا، تفاديًا لاستعمالها في إنشاء محتويات أو ممارسات ضارّة، مثل الاحتيال الرّقميّ، والتّنمّر الإلكترونيّ، وتقنيّات التّزييف العميق، التي تنتهك خصوصيّة الأشخاص من دون موافقتهم. وكما أنّ الثّورة الصّناعيّة تطلّبت محو أميّة أساسيّة لتمكين النّاس من مواجهة المستجدّات، كذلك تتطلّب الثّورة الرّقميّة اليوم تثقيفًا رقميًّا ملائمًا (إلى جانب تنشئة إنسانيّة وثقافيّة راسخة) لفهم كيفيّة تشكيل الخوارزميّات لإدراكنا للواقع، وكيف تعمل تحيّزات الذّكاء الاصطناعيّ، وما هي الآليّات التي تحدّد ظهور محتويات معيّنة في تدفّقات المعلومات (feeds)، وما هي، وكيف يمكن أن تتطوّر الأسس والنّماذج الاقتصاديّة لاقتصاد الذّكاء الاصطناعيّ.
نحن بحاجة إلى أن يَرجعَ الوجه والصّوت ليعبّرا عن الشّخص. نحن بحاجة إلى أن نحمي عطيّة التّواصل باعتبارها أعمق حقيقة في الإنسان، والتي يجب أن نوجّه إليها كلّ ابتكار تكنولوجيّ.
في تقديمي لهذه الأفكار، أشكر كلّ الذين يعملون من أجل الأهداف التي عُرضت هنا، وأبارك من كلّ قلبي كلّ الذين يعملون في وسائل التّواصل الاجتماعيّة من أجل الخير العام.
من حاضرة الفاتيكان، يوم 24 كانون الثّاني/يناير من عام 2026، تذكار القدِّيس فرنسيس دي سالِس.
لاوُن الرّابع عشر
***********
© جميع الحقوق محفوظة – حاضرة الفاتيكان 2026
[1]“إنّ كون الإنسان مخلوقًا على صورة الله يعني أنّه وُسِمَ بوَسمٍ ملوكيّ، منذ لحظة خلقه […]. الله محبّة وينبوع كلّ محبّة: وضع الله الخالق هذه السّمة أيضًا على وجوهنا، لكي يتمكّن الإنسان، بالمحبّة، التي هي انعكاس للمحبّة الإلهيّة، من أن يدرك ويُظهر كرامة طبيعته وشَبَهَه بخالقه” (راجع غريغوريوس النّيصي، خلق الإنسان: مجموعة المؤلّفات لآباء الكنيسة اليونانيّة 44، 137).
Copyright © دائرة الاتصالات – Libreria Editrice Vaticana
