في مقابلة أجرتها معه «الشرق الأوسط»، تحدث ديفيد راين بولغار، خبير أخلاقيات الذكاء الاصطناعي ومؤسس شركة «كل التكنولوجيا بشرية» All tech is human وعضو المجلس الاستشاري للمحتوى في «تيك توك»، عن نظم الذكاء الاصطناعي وعن تطوراتها، والشكوك المحيطة باستخداماتها.

منظارا الابتكار والتأثير

>شكراً لوجودك معنا، نسمع كثيراً عن الذكاء الاصطناعي وعن انتشاره في الولايات المتحدة وحول العالم، بالتزامن مع تحذيرات بأنه يشكل خطراً على المجتمع، ما رأيك في هذا؟

– كل التكنولوجيا يمكن أن تكون لديها استعمالات جيدة وأخرى سيئة. الذكاء الاصطناعي كغيره من أنواع التكنولوجيا هو عرضة للانتهاكات من اللاعبين السيئين. وما يجب علينا أن نفكر به من خلال تصميم وتطوير ونشر هذه التقنيات هو كيف نقوم بكل هذا بطريقة مدروسة. نريد أن نتطرق إليها من منظارين: منظار الابتكار، ومنظار التأثير.

ديفيد راين بولغار (غيتي)

هناك أحاديث كثيرة حول الذكاء الاصطناعي خاصة عندما نتحدث عن تقنية مثل برنامج المحادثة الذكي (تشات جي بي تي)، وهذه الأحاديث انتشرت على المواقع الإخبارية بعد رسالة «التحذير» للخبراء التي حصلت على الكثير من الاهتمام الإعلامي. لكن إذا ما نظرنا إلى هذه الرسالة بعمق نرى تركيزاً كبيراً على جانب الابتكار: هل نحن بحاجة لإبطاء ما يحصل في الابتكار للنظر فيما خلقناه؟ هل سيؤثر هذا على مستقبل الديمقراطية والإنسانية؟

نعلم أن تقنيات كالذكاء الاصطناعي ووسائل التواصل الاجتماعي وغيرها تؤثر على الأسلوب الذي نعيش فيه ونتعلم من خلاله ونحب ونموت، صحيح؟ إنها تؤثر على طريقة رؤيتنا للعالم. نحن بتنا ندرك أننا لا نؤثر على تصميم التكنولوجيا فحسب، بل إن التكنولوجيا تؤثر على رؤيتنا للعالم وتصرفاتنا وتواصلنا مع بعضنا البعض.

> لماذا هذه التحذيرات من الذكاء الاصطناعي؟ ما هي مخاطره الفعلية؟

– يجب أن ننظر لهذه التحذيرات من زاوية تشكيكية: عندما يتحدث أحدهم عن مخاطر الذكاء الاصطناعي ما هي دوافعه الشخصية؟ المستغرب هنا هو أن الأشخاص الذين يصممون هذه التقنيات هم نفسهم من يحذرون من تهديدها الوجودي. وأعتقد أن هناك اختلافات كبيرة في مجتمع «الأخلاقيات» المرتبط بالذكاء الاصطناعي حول مخاطره. فهناك معسكران: الأول يركز على التأثير القصير الأمد ويقول إن هناك تمييزا في الذكاء الاصطناعي مشابها لذلك الذي نراه في المجتمع. ومن دون قيود لتأمين سلامته سيكون هناك انتشار للعنصرية مثلاً وغيرها من القضايا.

أما المعسكر الثاني فهو الذي ينتمي إليه إيلون ماسك، الذي يركز على التأثير الطويل الأمد. وسمعنا من أشخاص كإيلون ماسك وستيفين هوكينز أن الذكاء الاصطناعي قد يدمر العالم.

إذن، الفارق بين المعسكرين هو أن الأشخاص في الفئة «الطويلة الأمد» يركزون على نقطة «ماذا يفعل الذكاء الاصطناعي للسيطرة على العالم؟» أما المعسكر الذي يركز على الأخلاقيات فيقول إن تكنولوجيا من هذا النوع لا تسقط علينا من السماء وليس لديها عقل مستقل. إنها ليست شخصاً. بل صممها أشخاص مثلنا وهم منحازون وغير كاملين. إذن نحتاج إلى بيانات أفضل ونحتاج إلى المزيد من الرقابة على هذا الذكاء الاصطناعي.

يجب أن ننظر للتحذيرات من الذكاء الاصطناعي من زاوية تشكيكية… فالمستغرب هنا هو أن الأشخاص الذين يصممون هذه التقنيات هم أنفسهم من يحذرون من تهديدها الوجودي

ديفيد راين بولغار، الخبير في أخلاقيات الذكاء الاصطناعي

> الى أي معسكر تنتمي؟

– أنا أنتمي إلى المعسكر «القصير الأمد» لهذا فإن مؤسستي التي أديرها تحمل اسم: «كل التكنولوجيا بشرية». السبب الذي أدى إلى إطلاق هذا الاسم عليها هو أننا أحياناً نميل إلى التفكير في الذكاء الاصطناعي بتعابير سحرية. إنه ليس سحراً. ليست لديه رغباته الخاصة. لسوء الحظ نستعمل بعض التعابير للحديث عن الذكاء الاصطناعي مثل الـ«هلوسة» مثلاً أو «التعب». ليست هناك هلوسة. الأشخاص يهلوسون. الذكاء الاصطناعي لا يهلوس لأنه ليس إنساناً. نميل بشكل طبيعي إلى النظر إليه من عيون بشرية لأننا بشر ونريد أن نرى الأشياء كبشر. لهذا عندما ننظر إلى حيواناتنا الأليفة مثلاً نراها كشخصيات إنسانية. لهذا عندما ترى الثلج، تبني «رجل ثلج»، قد تقوم بالأمر نفسه مع شجرة مثلاً، صحيح؟ لهذا أنا أنظر إلى مشاكل الذكاء الاصطناعي على أنها تعود إلينا كأشخاص، فيجب أن نضع أطراً للحماية وأن ننوع من طبيعة الأشخاص الذين يشرفون عليها للحرص على أنها مصممة بشكل صحيح يتلاءم مع المصلحة العامة في المستقبل.

ضوابط السلامة

> ننتقل هنا إلى مسألة الضوابط. هناك دعوات كثيرة لفرض ضوابط من قبل الكونغرس. هل تعتقد أن هناك حاجة لتدخل الكونغرس في هذه القضية؟

– أعود دوماً لمبدأ الابتكار، إذن الجواب هو نعم. في الكثير من الأوقات ولسوء الحظ ننظر إلى أمر كالذكاء الاصطناعي ونتحدث عنه من منطلق طبيعة العمل أو القدرة الاصطناعية ودور الحكومة ودور الأفراد. إذن عندما تكون هناك مشكلة في (تشات جي بي تي) مثلاً نتحدث عما إذا يمكن للطلاب استعماله لكتابة امتحان مثلاً. هذا أمر متعلق بالشخص لكن هناك أيضاً ما تقوم به شركة «أوبن إيه أي – (Open AI) المنتجة له، ومسؤوليتها كلاعب في هذا المجال، ثم هناك دور الحكومة كالبيت الأبيض مثلاً، ورؤيتها لمستقبل الذكاء الاصطناعي.

إذن هناك ضرورة للنظر إلى الحكومة وضوابطها ومسؤولية الشركات والأفراد في تعرفهم على قوة التكنولوجيا، واتخاذ كل هذه المحاور على محمل الجد والعمل سويا. فهذا ما نفعله في كل أمر في الحياة. عندما أستقل سيارة، أضع حزام أمان لأنها مسؤوليتي الفردية. لكن صانع السيارة لديه مسؤولية تأمين سلامتها وإذا لم يلتزم بهذا ستتم محاسبته. ثم هناك الضوابط التي تضعها الحكومة لمعرفة ما هي معايير السلامة المطلوبة، كما أن الحكومة لديها مسؤولية تأمين سلامة الطرقات.

إذن الأمر مشابه في الذكاء الاصطناعي. وعندما نتساءل: هل هناك حاجة للضوابط، الجواب هو بالطبع هناك حاجة لضوابط ذكية تفهم طبيعة القضايا المطروحة هنا، للحرص على أننا لن ننجر في سياسة التخويف، لأنه من السهل جداً أن ننظر إلى الذكاء الاصطناعي وكأنه «الروبوت المدمرterminator» وهذا أمر بعيد كل البعد عن الذكاء الاصطناعي. أنا لست قلقاً من الروبوتات أنا قلق من التمييز في الذكاء الاصطناعي. وهذه قضية أهم بكثير، لكن لسوء الحظ من الصعب أن يشعر المرء بالحماس فيها لأنك تستطيع أن تتخيل أرنولد شوارزنيغر كالروبوت المدمر. لكنك لا تستطيع أن تتخيل طبيعة التمييز وكيف يمكنه أن يعمق من المشاكل الاجتماعية -كالتوظيف مثلاً- وغيرها من قضايا يؤثر فيها الذكاء الاصطناعي.

يرى بولغار أن المبالغات في التخوف من الذكاء الاصطناعي سببها أننا نميل بشكل طبيعي إلى النظر إليه كبشر (أدوبي ستوك)

المنافسة مع الصين

> بالحديث عن الروبوتات، أريد أن أسالك عن المنافسة مع الصين في مجال الذكاء الاصطناعي أيضاً. هل يمكنك أن تشرح لنا طبيعة هذه المنافسة؟

– إحدى المسائل هنا هي أن الولايات المتحدة كلاعب أساسي عالمياً في مجال الذكاء الاصطناعي، تواجه نزاعاً بين الحاجة لأن تكون ذكية من حيث الضوابط المفروضة على الذكاء الاصطناعي، وبين المنافسة، على غرار تلك التي وجدت مع الاتحاد السوفياتي السابق. لهذا أعتقد أن هناك حاجة للتعاون، وضرورة وجود تعاون عالمي متعدد بين اللاعبين الأساسيين. ودور الأمم المتحدة مهم في هذا السيناريو. يجب أن نحرص على ألا نشعر بضغط يؤدي إلى إزالة كل الضوابط التي يجب أن تفرض.

بمعنى آخر السعي كي نكون في المقدمة يجب ألا يؤدي إلى خلق شيء غير جاهز للنشر… فيما يتعلق بالولايات المتحدة مقابل الصين، من الواضح أن هناك وضعا جيوسياسيا مضطربا للغاية. يجب ألا تتوقف أميركا عن الابتكار، فهذا ما جعلها ناجحة على مر العقود. أعتقد أن التوتر يكمن في السرعة من دون أن ننسى تأثير هذا على الأشخاص وأن نهمل القيود المطلوبة. إذا ما ركزنا على الابتكار الذي يميز أميركا سوف نتخطى المنافسة مع الصين.

> ذكرت في بداية إجاباتك أن هناك معسكرين، المعسكر الذي يقوده إيلون ماسك والذي يحظى بالكثير من الاهتمام، ويتضمن الكثير من التخويف، لماذا تعارضه الرأي؟

– لأن التخويف هو السيناريو الكلاسيكي للعرقلة، وهو فعال. والدليل الاهتمام الإعلامي به اليوم. لكن ما يفعله هو أنه يرسل رسالة إلى الأفراد العاديين ويقول لهم: «أنتم لا تفهمون هذه التكنولوجيا. إنها معقدة. وحدي أنا أستطيع أن أفهمها ولهذا يجب أن أكون مسؤولاً عن تصميمها». إذن عندما يتم التحذير من أن الذكاء الاصطناعي سوف يسيطر على العالم ويدمر البشرية هذا يجعل الشخص الذي يسمع هذا التحذير أو يرى التغريدة يقول: «لا يمكنني المشاركة في هذا الحوار لأنه يتخطى معرفتي»…

أقول لكل من يضع هذه الهالة حول الذكاء الاصطناعي، هل نواياكم جيدة؟ جوابي هو لا، هم يقومون بهذا لمساعدة موقفهم. لأن ما يقولونه فعلياً هو: «هذا سوف يدمر العالم لهذا يجب أن أسيطر عليه. وهذا أسلوب للقول لكل شخص يشاهد في المنزل ألا يكون جزءاً من الحوار. وأنا أرفض هذه المقاربة كلياً».

> هل تعتقد إذن بناء على ما تقوله بأن الإنسان سيتحكم دوماً بالذكاء الاصطناعي؟

– يجب أن ننظر إلى هذه المسألة بعين المنتقد، إذا كان الذكاء الاصطناعي فعلاً سيدمر العالم إذن لا يجب أن يكون الأشخاص الذين يروجون لذلك هم الأشخاص أنفسهم الذين يبيعونه للأفراد. هذا نوع من فرض للسلطة على هذا المجال. يجب أن نعود دوماً لنقطة أن الذكاء الاصطناعي لم يسقط علينا من السماء، إنه ليس سحرياً. كل التكنولوجيا بشرية. كل التقنيات أتت من عيوبنا الخاصة، إن الأشخاص الذين يصممونه هم الأشخاص الذين يخلقون الحماية من عدمها. من المهم أن نعلم أن كل التقنيات تخضع لنا نحن البشر، ولا يجب أن نقلق من أن الذكاء الاصطناعي سيحولنا إلى حيواناته الأليفة.

أنا أقلق أكثر من ألا يتمكن الشعب من المشاركة في هذا الحوار، وأقلق من ألا يتم دمج قيم الشعب في أنظمة التقنيات هذه. أعتقد أنني أقلق من واقع أن تكون هناك مجموعة صغيرة من المجتمع هي المسؤولة عن تصميم وتطوير ونشر التقنيات التي تؤثر على مجموعة كبيرة من الأشخاص. وألا يكون لهؤلاء الأشخاص رأي في كيفية خلق هذه التقنيات. لا يجب لأي تطبيق أن يكون من دون تمثيل، إن كان الأمر متعلقا بنا يجب أن يشملنا. وإذا كان الذكاء الاصطناعي يؤثر عليك، إذن لديك الحق في التأثير على صنعه. لأنني أرى أن مستقبل الذكاء الاصطناعي والتقنيات المستقبلية مرتبط بمستقبل الديمقراطية ووضع الإنسان. إذن يجب أن نكون كلنا معنيين بمساره.

شاركها.
Exit mobile version