على سبيل المثل، فالمشهد التنظيمي الأميركي المؤثر في الذكاء الاصطناعي ليس محكوما بإطار واحد مستقر، بل هو خليط واسع من القواعد الفيديرالية والولائية، مع اختلافات في تعريف الذكاء الاصطناعي نفسه، وتباين في الفصل بين تنظيم التطوير وتنظيم النشر، وتعدد في المخاطر التي يراد ضبطها. لكن من منظور اقتصادي، المشكلة ليست فقط أن هذ المشهد معقد، بل أنه يرفع تكاليف الامتثال، ويزيد درجة عدم اليقين التنظيمي، ويضعف القدرة على التخطيط الطويل الأجل، ويجعل قرارات الاستثمار والتوسع أكثر حذرا، بل أحيانا أكثر انكماشا مما ينبغي.

وقد زادت التحولات السياسية في واشنطن هذا الاضطراب تعقيدا. فإدارة الرئيس السابق جو بايدن كانت قد دفعت نحو تنظيم أكثر وضوحا في بعض الملفات من خلال الأمر التنفيذي 14110 الهادف إلى تعزيز تطوير واستخدام ذكاء اصطناعي آمن وموثوق به، لكن هذا الأمر ألغي لاحقا في عهد إدارة ترمب. في المقابل، لم تلغ الإدارة الجديدة الأمر التنفيذي 14141 المتعلق بتعزيز القيادة الأميركية في بنية الذكاء الاصطناعي التحتية. ومن المنظور الاقتصادي، فإن هذا التمييز مهم جدا، لأنه يشير إلى أن الدولة لا تتحرك بمنطق "التنظيم أو عدم التنظيم" على نحو مطلق، بل بمنطق انتقائي يخفف القيود في بعض المجالات التي يرى أنها قد تعيق الابتكار، ويحتفظ أو يعزز التدخل في مجالات أخرى يعتقد أنها تدعم القدرة التنافسية الوطنية. وهذا يكشف أن الدولة، حتى عندما تتحدث بلغة تنظيمية أو تحريرية، فإنها في العمق تتخذ قراراتها وفق حسابات تتعلق بالنمو، والاستثمار، والسبق التكنولوجي، والمكانة في الاقتصاد العالمي للذكاء الاصطناعي.
جذور المشكلة
يكمن أحد جذور المشكلة في الفجوة المعرفية بين صناع القرار والتطور التقني. فالجهات التنظيمية غالبا لا تمتلك الفهم العميق لكيفية عمل أنظمة الذكاء الاصطناعي، خاصة تلك المعتمدة على التعلم العميق والنماذج المعقدة التي تؤدي إلى صوغ قوانين قد تكون مبالغا فيها أو غير دقيقة، بل وأحيانا غير قابلة للتطبيق. فالمنظمون يحاولون ضبط سلوك الأنظمة دون القدرة على فهم جميع العوامل المؤثرة فيها، مثل التكاليف الفعلية، أو دوافع الشركات، أو طبيعة المخاطر الحقيقية.
وهذه المشكلة ليست جديدة، بل هي جزء من تحد أوسع في تصميم السياسات العامة، إذ تعاني الجهات التنظيمية دائما من نقص المعلومات، مقارنة بالأطراف التي تخضع للتنظيم. ورغم أن الهدف من التشريعات هو تقليل المخاطر، فإن القوانين المتشددة قد تؤدي إلى نتائج عكسية. فبدلا من تعزيز الأمان، قد تدفع الشركات إلى تقليل استخدام أنظمة فعالة أو حتى التخلي عنها بالكامل لتجنب المخاطر القانونية.
وفي بعض الحالات، اضطرت شركات إلى إعادة تصميم أنظمتها بشكل مختلف لكل ولاية، مما أدى إلى زيادة التكاليف وتعقيد العمليات. وفي حالات أخرى، فضلت شركات صغيرة ومتوسطة، الابتعاد عن استخدام الذكاء الاصطناعي تماما، لأنها لا تملك الموارد اللازمة للامتثال لمتطلبات متعددة ومتناقضة.
ولا يقتصر هذا التأثير على الشركات فقط، بل يمتد إلى الاقتصاد ككل، حيث يؤدي إلى تباطؤ الابتكار وتقليل القدرة التنافسية في مواجهة دول تعتمد سياسات أكثر اتساقا. فمن المفارقات أن التنظيم الصارم قد يقلل الشفافية بدل تعزيزها. فعندما تكون المسؤولية القانونية عالية، تميل الشركات إلى تقليل الإفصاح عن تفاصيل أنظمتها لتجنب المخاطر.
بدلا من الكشف عن كيفية عمل الخوارزميات أو توضيح الأخطاء المحتملة فيها أو حدود أدائها في البيئات المختلفة، قد تميل المؤسسات - خصوصا في ظل بيئة تنظيمية صارمة وغير متوقعة - إلى الاحتفاظ بالمعلومات الحساسة داخليا، ليس في الضرورة بدافع سوء النية، بل نتيجة حسابات عقلانية تتعلق بتقليل المخاطر القانونية والسمعة المؤسسية، إذ يصبح الإفصاح الكامل في بعض الحالات بمثابة سلاح ذي حدين قد يعرض الشركة للمساءلة أو سوء الفهم أو حتى الاستغلال التنافسي.



