... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
294230 مقال 299 مصدر نشط 38 قناة مباشرة 5522 خبر اليوم
آخر تحديث: منذ ثانيتين

لماذا تريدك شركات التكنولوجيا أن تخاف منها؟

تكنولوجيا
BBC Arabic
2026/05/01 - 08:48 503 مشاهدة
BBC News, عربيإذهب الى المحتوىرئيسيةشاهداستمعأقسامرئيسيةأخباراقتصادصحة وعلومثقافة وفنونرياضةتحقيقاتأخباراقتصادصحة وعلومثقافة وفنونرياضةتحقيقاتلماذا تريدك شركات التكنولوجيا أن تخاف منها؟صدر الصورة، Serenity Strull/ BBC/ Getty Images صنعوه. يخافون منه. ويبيعونه رغم ذلك. أوقفني إن كنت سمعت هذه القصة من قبل: شركة تقنية تقول إنها طورت نموذج ذكاء اصطناعي جديداً، قوياً إلى حد يثير الخوف. ويبدو أنه أخطر من أن يُطرح للعالم، لأن العواقب ستكون كارثية. لحسن حظنا، سيبقونه مغلقاً في الوقت الحالي. أرادوا فقط أن نعرف ذلك. تطبيق الذكاء الاصطناعي الذي أثار الرعب في هوليود هذا بالضبط ما تقوله لنا شركة الذكاء الاصطناعي "أنثروبيك" عن أحدث نماذجها، "كلود ميثوس". تقول الشركة إن قدرة ميثوس على العثور على ثغرات في الأمن السيبراني تتجاوز بكثير قدرات الخبراء البشر، وإن وصول تقنية مشابهة إلى الأيدي الخطأ قد تكون له عواقب تغيّر العالم. وكتبت "أنثروبيك" في منشور على مدونتها مطلع أبريل/نيسان: "قد تكون التداعيات، على الاقتصادات والسلامة العامة والأمن القومي، خطيرة". وذهب بعض المعلّقين المتحمسين إلى التحذير من أن "ميثوس" قد يجبرك قريباً على استبدال كل جهاز تقني في حياتك، حتى جهاز الميكروويف المتصل بالواي فاي، اتقاءً لهذا الجنون الرقمي. يشكك بعض خبراء الأمن في هذه المزاعم، لكن لنترك ذلك جانباً الآن. فالأمر ليس جديداً. إذ يطلق مسؤولون تنفيذيون في كبرى شركات الذكاء الاصطناعي، بانتظام، تحذيرات من أن منتجات صناعتهم قد تدمّر البشرية. فلماذا تريد شركات الذكاء الاصطناعي أن نخاف منها؟ إنها طريقة غريبة لكي تتحدث أي شركة عن عملها. لا نسمع مثلاً ماكدونالدز تعلن أنها ابتكرت شطيرة لذيذة إلى حد مرعب، بحيث يصبح من غير الأخلاقي شيّها وتقديمها للناس. إليكم إحدى النظريات. فبحسب منتقدين، تستفيد شركات الذكاء الاصطناعي من إبقائنا مشدودين إلى سيناريوهات نهاية العالم، لأن ذلك يصرف الانتباه عن الأضرار الواقعية التي تتسبب بها بالفعل. ويقول قادة التكنولوجيا إنهم لا يفعلون سوى تحذيرنا من مستقبل لا مفر منه، وإن السلامة أولوية قصوى، الآن ولاحقاً. لكن آخرين يرون أن ما نشهده في الحقيقة هو ترويج للخوف، يضخّم قدرات هذه التكنولوجيا ويساعد في رفع أسعار الأسهم. كما يعزز سردية مفادها أن على الجهات التنظيمية أن تقف جانباً، لأن شركات الذكاء الاصطناعي وحدها قادرة على ردع الأشرار وبناء هذه التكنولوجيا بمسؤولية. وتقول شانون فالور، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في جامعة إدنبرة في بريطانيا: "إذا تم تصوير هذه التقنيات كأن خطرها شبه خارق للطبيعة، فإن ذلك يجعلنا نشعر بأننا عاجزون وبأننا الطرف الأضعف. وكأن الجهة الوحيدة التي يمكن أن نلجأ إليها هي الشركات نفسها". قناتنا الرسمية على واتسابتابعوا التغطية الشاملة من بي بي سي نيوز عربي قال لي متحدث باسم "أنثروبيك" إن الشركة كانت واضحة في موقفها من هذه القضايا. وأرسل إليّ روابط لتدوينات نشرتها منظمات أخرى تؤيد ما تقوله الشركة عن القدرات السيبرانية لنموذج "ميثوس"، لكنه لم يرد على النقاط المطروحة في هذا المقال، باستثناء تعليق واحد سأورده لاحقاً. وليست هذه المرة الأولى التي يعمل فيها داريو أمودي، رئيس "أنثروبيك"، على أداة تصفها الشركة التي يعمل لديها بأنها أخطر من أن تُطرح للجمهور. ففي عام 2019، حين كان أمودي مسؤولاً تنفيذياً في "أوبن إيه آي"، أعلنت الشركة عن نموذج "جي بي تي-2". وقال هو ومسؤولون آخرون فيها إنهم لا يستطيعون طرحه ببساطة، بسبب "مخاوف من الاستخدامات الخبيثة للتكنولوجيا". وكان ذلك النموذج أقل تطوراً بكثير من "تشات جي بي تي". ومع ذلك، طرحته الشركة بعد أشهر. ونشر سام ألتمان، الرئيس التنفيذي لـ"أوبن إيه آي"، تدوينة قال فيها إن الشركة تتعامل مع عدم اليقين كجزء من عملها، مقراً بأن المخاوف بشأن "جي بي تي-2" كانت "في غير محلها". وانتقد ألتمان "التسويق القائم على الخوف" لدى "أنثروبيك"، في مقابلة حديثة ضمن برنامج بودكاست. لكن وصفة ألتمان الخاصة من نوع "لقد صنعتُ وحشاً" ليست جديدة. ففي عام 2015، قال ألتمان: "من المرجح جداً أن يؤدي الذكاء الاصطناعي إلى نهاية العالم، لكن في هذه الأثناء ستكون هناك شركات عظيمة". وبعد سنوات، قال ألتمان إنه لم يعد ينام ليلاً وهو يتساءل عما إذا كان "قد فعل شيئاً بالغ السوء بإطلاق تشات جي بي تي". يا ليت أحداً حذّره. صدر الصورة، Serenity Strull/ BBC/ Getty Images وقع مئات من قادة قطاع التكنولوجيا، بينهم سام ألتمان وداريو أمودي وبيل غيتس وديميس هاسابيس، الرئيس التنفيذي لـ"غوغل ديب مايند"، على بيان مقتضب في عام 2023 جاء فيه: "ينبغي أن يكون الحد من خطر انقراض البشرية بسبب الذكاء الاصطناعي أولوية عالمية، إلى جانب مخاطر أخرى على مستوى المجتمع كله، مثل الأوبئة والحرب النووية". وفي العام نفسه، وقّع عدد من كبار رجال التكنولوجيا، بينهم إيلون ماسك، رسالة تدعو إلى وقف تطوير نماذج الذكاء الاصطناعي المتقدمة لمدة ستة أشهر. وبعد أقل من ستة أشهر، أعلن ماسك تأسيس شركته الجديدة للذكاء الاصطناعي، "إكس إيه آي". وتقول إميلي إم بندر، أستاذة اللسانيات الحاسوبية ومعالجة اللغة الطبيعية في جامعة واشنطن، والمؤلفة المشاركة لكتاب The AI Con، إن الأمر "ليس سوى جزء من نمط متكرر من ادعاءات القوة غير المدعومة بأدلة". وترى بندر أن هذا لا يقتصر على "أوبن إيه آي" و"أنثروبيك"، بل يمثل الموقف المعتاد في صناعة الذكاء الاصطناعي كلها. وتضيف: "كأنهم يقولون: انظروا هنا، ولا تلتفتوا إلى الدمار البيئي، واستغلال العمالة، وكل الأنظمة التي نساهم في تدميرها داخل المجتمع. ما علينا سوى القلق من ألّا يتحول هذا الشيء إلى النسخة الشريرة التي تدمر البشرية". وسألت "أوبن إيه آي" عن كل ذلك. فأرسل متحدث باسمها تدوينة حديثة لألتمان كتب فيها أن الشركة "ستقاوم احتمال أن تؤدي هذه التكنولوجيا إلى تركيز السلطة في أيدي قلة"، مضيفاً أن "القرارات الأساسية بشأن الذكاء الاصطناعي ينبغي أن تُتخذ عبر عمليات ديمقراطية وبمبادئ قائمة على المساواة، لا أن تنفرد بها مختبرات الذكاء الاصطناعي". تقول "أنثروبيك" إن نموذجها الجديد عثر بالفعل على آلاف الثغرات "العالية الخطورة" في أنحاء المشهد التقني، وبمستوى يتجاوز قدرات الخبراء البشر. كما أعلنت عن شراكة جديدة مع أكثر من 40 شركة ومجموعة، في "محاولة عاجلة" لسدّ الثغرات قبل أن يستغلها القراصنة. وقال متحدث باسم الشركة إن "أنثروبيك" تعمّدت إقامة شراكات مع منظمات للعمل على ترقيع أنظمة الحوسبة الأساسية، التي تمثل "النصيب الأكبر" من المشكلة. لكن هذه المزاعم تثير شكوكاً كبيرة، ولم تبدي هايدي خلاف، كبيرة علماء الذكاء الاصطناعي في معهد "إيه آي ناو"، اقتناعاً بها. فقد أمضت خلاف مسيرتها المهنية في بناء وتدقيق النوع نفسه من أدوات تحليل الشيفرات البرمجية التي تقول "أنثروبيك" إن نموذجها تجاوزها. كما عملت في مجال السلامة الرقمية في المنشآت النووية. وتقول خلاف إن أبرز مؤشر مقلق كان غياب معدلات "النتائج الإيجابية الكاذبة"، وهو مقياس معتمد في القطاع يوضح عدد المرات التي تُبلغ فيها أداة أمنية عن مشكلة لا وجود لها فعلياً. وتضيف: "هذا ليس مقياساً مجهولاً. بل يمكن القول إنه أكبر مؤشر على مدى فائدة أداتك". ولم تذكر "أنثروبيك" هذا المقياس، كما تجنبت الإجابة عنه عندما طلبتُ تعليقها. ولم تختبر "أنثروبيك" نموذج ميثوس أيضاً في مواجهة الأدوات الحالية التي يعتمد عليها مهندسو الأمن منذ عقود. كما ظهرت مزاعم بأن "أنثروبيك" ربما أخّرت طرح ميثوس على نطاق واسع لأنها لم تكن قادرة على تحمل كلفة القدرة الحاسوبية اللازمة. ولم ترد الشركة أيضاً عندما سألتها عن ذلك. ولا يعني أي من هذا أن التهديد وهمي. تقول خلاف: "قد يكون ميثوس قادراً فعلاً". فأدوات الذكاء الاصطناعي مناسبة بالفعل لمسح قواعد برمجية ضخمة، كما أن العثور الآلي على الثغرات الأمنية خطر حقيقي وملحّ. لكن خلاف تشكك في مزاعم "أنثروبيك" ما لم تتمكن الشركة من إثباتها. وتقول: "أعتقد أن هناك الكثير من الثغرات في هذه السردية التي تقول إن ميثوس فائق القدرة، وإننا لا نستطيع طرحه". الوقوف في وجه نهاية العالم هو، أصلاً، السبب الذي تقول "أوبن إيه آي" و"أنثروبيك" إنهما تأسستا من أجله. فقد أنشئت "أوبن إيه آي" كمؤسسة غير ربحية، متعهدة ببناء الذكاء الاصطناعي بطريقة آمنة، قبل أن تسبقها إليه عمالقة التكنولوجيا التي تصوَّر على أنها أقل مسؤولية، مثل "غوغل" و"ميتا". ولاحقاً، غادرت مجموعة منشقة "أوبن إيه آي" لتؤسس "أنثروبيك"، قائلة إن الشركة السابقة لم تكن ملتزمة بما يكفي بمعايير السلامة. واليوم، تعمل المؤسستان كلتاهما على التحول إلى شركتين مدرجتين في البورصة وبيع أسهمهما في السوق. وتقول شانون فالور: "إذا أردت أن تفهم كيف ستتصرف منظمة ما، ولا سيما شركة، فانظر إلى الحوافز التي تحركها". فقد تخلت "غوغل" عن خطوطها الحمراء بشأن تطوير أسلحة تعمل بالذكاء الاصطناعي. وخاضت "أوبن إيه آي" معركة قانونية للتخلص من وضعها كمؤسسة غير ربحية. أما "أنثروبيك"، فتخلت عن سياستها الأبرز، التي كانت تقضي بعدم تدريب أي نموذج ذكاء اصطناعي إذا لم تستطع الشركة ضمان تدابير سلامة كافية. وتقول فالور: "لن أراهن على أن أياً من هذه الشركات سيتخلى عن فرصة الهيمنة على السوق كي يبقى في موقع الطرف الخيّر". وفي الوقت نفسه، يتزايد الدفع نحو إدخال الذكاء الاصطناعي في الرعاية الصحية، رغم مخاوف جدية من أخطاء التشخيص. وقد تتسبب مراكز البيانات العاملة بالغاز في انبعاثات من الغازات الدفيئة تفوق ما تطلقه دول بأكملها. وتفيد تقارير بأن الذكاء الاصطناعي يدفع أعداداً كبيرة من الأشخاص الضعفاء إلى أزمات نفسية حادة. وتشير مجموعة متنامية من الأبحاث إلى صلة محتملة بين استخدام الذكاء الاصطناعي والتراجع المعرفي. أما التزييف العميق، فقد تجاوز نقطة اللاعودة. لم أستطع حتى إقناع عمتي بأنني لست روبوتاً. وتقول شركات الذكاء الاصطناعي إنها تأخذ هذه القضايا على محمل الجد. فقد أرسلت لي "أوبن إيه آي" روابط توضح موقفها من الصحة النفسية، ودقة الذكاء الاصطناعي، والاحتيال وعمليات الخداع. ويقول ألتمان إن الشركة ملتزمة بمعالجة المشكلات في كل مرحلة من مراحل تطوير الذكاء الاصطناعي. لكن، بحسب فالور، هناك سبب يجعل هذه الشركات لا تطلق جرس الإنذار إلا عندما يكون الحديث عن نهاية العالم. فإذا كان الذكاء الاصطناعي قد يدمر المجتمع، بدت كل هذه المشكلات الأخرى أقل شأناً بكثير. وتضيف: "لقد نجحت هذه الاستراتيجية. فالحديث عن منتجاتهم كما لو أنها قد تنهي العالم لم يضر بهذه الشركات، ولم يحد من قوتها. بل على العكس، يجعل الناس يشعرون بأن الجهة الوحيدة التي يمكن أن يلجأوا إليها طلباً للحماية هي الشركات نفسها". في الوقت نفسه تقريباً، لا يكتفي بعض الذين يحذرون من الدمار بالتخويف، بل يقدّمون وعوداً بالخلاص أيضاً. ففي مقال نشرعام 2024، توقّع ألتمان أن تصبح "الإنجازات المذهلة، من إصلاح المناخ، إلى إنشاء مستعمرة فضائية، واكتشاف قوانين الفيزياء كاملة، أموراً عادية في نهاية المطاف". أما أمودي، فوعد بـ"بلد من العباقرة داخل مركز بيانات". وترى فالور أن اليوتوبيا ونهاية العالم تنتميان إلى المنطق نفسه. ففي الحالتين، كما تقول، تقدّم التكنولوجيا بحجم هائل وأسطوري، إلى درجة تبدو معها أدوات مثل التنظيم والحوكمة والقانون عاجزة عن التعامل معها. وتضيف: "يدفع ذلك الناس إلى الاعتقاد بأن لا شيء بوسعهم فعله سوى الجلوس والانتظار: هل ستتحول هذه التقنيات إلى شياطين تنهي الحضارة، أم إلى مخلّصين يمنحوننا المدينة الفاضلة؟". حتى اسم "ميثوس" نفسه يبدو كأنه اختير لإثارة رهبة شبه دينية. لكن هذه ليست آلهة، كما تقول فالور، بل منتجات تصنعها شركات بهدف الربح. وقد سبق أن أخضعنا للتنظيم تقنيات أشد خطراً بكثير من روبوتات الدردشة. وتقول: "مع كل تقنية أخرى، حتى الطاقة النووية والأسلحة البيولوجية، لم نسمح لمثل هذه السرديات بأن تقنعنا بأننا أمام قوى تفوق السيطرة البشرية". وتضيف: "لا شيء في هذه التقنيات يجعلها عصية على الحوكمة، إلا إذا اخترنا نحن أن نتركها بلا حوكمة". ولنكن واضحين: من الناحية النظرية، قد يسيطر الذكاء الاصطناعي على العالم. لست عرّافاً. لكن اسأل نفسك: ألا تشبه هذه الفكرة قصصاً أخرى سمعناها من وادي السيليكون من قبل؟ ألم يكن يفترض بنا، بحسب الوعود، أن نعيش الآن في ميتافيرس مارك زوكربيرغ؟ ألم تكن بيتكوين ستستبدل كل عملات العالم؟ ألا تذكرون كيف قيل لنا، في العقد الثاني من الألفية، إن وسائل التواصل الاجتماعي ستنقذ الديمقراطية؟ ربما يحدث كل ذلك يوماً ما. وربما لا. 01:44 فيديو, نكات تاريخية للملك تشارلز الثالث مع ترامب, المدة 1,4401:28 فيديو, عداء كيني يحقق إنجازاً تاريخياً بحذاء "خارق", المدة 1,2801:07 فيديو, الإمارات تعلن انسحابها مـن أوبك وأوبك+, المدة 1,0701:13 فيديو, ميلانيا تهاجم كيميل بعد نكتة "أرملة مرتقبة", المدة 1,1300:54 فيديو, عنف أسري ببرنامج "لالة العروسة" يثير استياء مغاربة, المدة 0,5401:39 فيديو, ما الذي يحدث في مالي؟, المدة 1,3901:38 فيديو, المتهم أمجد يوسف، و"مجزرة حي التضامن", المدة 1,3801:24 فيديو, ترندينغ: مخاطر لا تعرفونها عن مشروبات الطاقة, المدة 1,2401:25 فيديو, تكاليف عالية على المغربي في كأس العالم 2026, المدة 1,2501:39 فيديو, حرب الولايات المتحدة وإسرائيل مع إيران بأسلوب "ليغو"، من ينتج هذه الفيديوهات؟, المدة 1,3901:05 فيديو, لماذا سمي مضيق هرمز بهذا الاسم؟, المدة 1,0501:51 فيديو, من هو نجل آخر شاه لإيران رضا بهلوي؟, المدة 1,5101:33 فيديو, 3 أساسيات في حياتك مرتبطة بمضيق هرمز, المدة 1,3301:56 فيديو, هل الأرض مسطحة أم كروية؟, المدة 1,5601:11 فيديو, لماذا أطلقت السعودية القمر الصناعي "شمس" إلى الفضاء؟, المدة 1,1101:38 فيديو, لماذا لا يرتدي مسؤولون إيرانيون ربطة عنق؟, المدة 1,3801:52 فيديو, هل تلاحق "لعنة زيدان" المنتخب الإيطالي بعد 20 عاماً؟, المدة 1,5201:54 فيديو, هاري بوتر يعود من جديد, المدة 1,5401:15 فيديو, ترامب يوقّع على الدولار، سابقة هي الأولى لرئيس أمريكي, المدة 1,1501:35 فيديو, من هم قوات مشاة البحرية الأمريكية، المارينز؟, المدة 1,35المزيد حول هذه القصةرئيس "أنثروبيك" للذكاء الاصطناعي يلتقي مسؤولين بالبيت الأبيض رغم مقاضاة الشركة لوزارة الدفاع18 أبريل/ نيسان 2026هل يمكن أن نثق في نصائح صحية من تطبيقات الذكاء الاصطناعي؟20 أبريل/ نيسان 2026الذكاء الاصطناعي يفتح آفاقاً لعلاج أمراض كان يُعتقد أنها غير قابلة للعلاج12 مارس/ آذار 2026الأخبار الرئيسيةمباشر, طهران تعلن التصدي لمسيّرات خلال الساعات الماضية، ترامب يلوّح بسحب قوات من إيطاليا وإسبانيا بسبب معارضتهما لحرب إيران"رواتب مجزئة.. وحماية محدودة"... كيف يعمل عمال توصيل الطلبات في مصر؟قبل 2 ساعةبريطانيا ترفع مستوى التهديد الإرهابي بعد وقائع طعن30 أبريل/ نيسان 2026اخترنا لكممن التوقيف إلى سحب الجنسية: كيف تعيد دول الخليج رسم حدود "الولاء"؟24 أبريل/ نيسان 2026أطفال يميّزون أنواع الطائرات قبل أنواع الفاكهة! قصص الحروب19 أبريل/ نيسان 2026كيف غيّرت طائرات إيران المسيّرة مفهوم القوة في النزاعات الدولية؟19 أبريل/ نيسان 2026من فيروز ووديع الصافي إلى جوليا: حكاية الجنوب في الأغنية اللبنانية 18 أبريل/ نيسان 2026الذكرى الثالثة للحرب في السودان: رسائل لن تصل12 أبريل/ نيسان 2026تفضيلات القراء1كيف يؤثر انقطاع الغاز الإسرائيلي عن الأردن ومصر على إنتاج وتوريد الكهرباء؟2كيف يمكن أن يؤثر إغلاق هرمز على الغذاء والأدوية والهواتف الذكية؟3كيف أصبح مضيق هرمز أقوى سلاح لدى إيران؟4"مارسنا الجنس في فندق بالصين، ثم اكتشفنا أن الآلاف شاهدونا"آخر تحديث 6 فبراير/ شباط 20265مباشرطهران تعلن التصدي لمسيّرات خلال الساعات الماضية، ترامب يلوّح بسحب قوات من إيطاليا وإسبانيا بسبب معارضتهما لحرب إيران6ما تبعات قرار انسحاب الإمارات من أوبك على علاقتها مع السعودية وأسواق النفط؟7بنت جبيل: المدينة التي تتصدر جبهات الحروب في جنوب لبنان8"لستِ أختي بعد الآن": انقسام داخل عائلات إيرانية بسبب الحرب9ما أهمية مضيق باب المندب المهدد بالإغلاق من قبل إيران؟10"زعيمان متغطرسان يعطلان مضيق هرمز، ماذا قد يحدث؟" - مقال في نيويورك تايمز BBC News, عربيلماذا يمكنك الاعتماد على أخبار بي بي سيشروط الاستخدامعن بي بي سيسياسة الخصوصيةملفات الارتباط Cookiesاتصل بـ بي بي سيبي بي سي نيوز عربي في لغات أخرى© 2026 بي بي سي. بي بي سي ليست مسؤولة عن محتوى المواقع الخارجية. سياستنا بخصوص الروابط الخارجية.
مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤