لماذا تحذر مايكروسوفت من الاعتماد على Copilot؟
✨ AI Summary
🔊 جاري الاستماع
برزت ملاحظات لافتة حول شروط استخدام المساعد الذكي Microsoft Copilot التابع لشركة مايكروسوفت الأمريكية، حيث أثارت بعض بنودها جدلاً واسعاً بين المستخدمين.
المساعد الذكي Copilot يثير التساؤلات: هل هو أداة إنتاجية أم للترفيه فقط؟
وبحسب ما ذكرته تقارير تقنية، فقد لاحظ البعض أن الشركة تعتمد صياغات قانونية تبدو أكثر تحفظاً من المعتاد، حيث تشير إلى أن Copilot مخصص لأغراض الترفيه فقط، وهي عبارة أثارت استغراب الكثيرين، خاصة في ظل اعتماد الشركات والمؤسسات على هذه الأداة في بيئات العمل.
وتتضمن الشروط أيضاً تحذيرات واضحة بأن النظام قد يخطئ أو لا يعمل كما هو متوقع، مع التأكيد على ضرورة عدم الاعتماد عليه في اتخاذ قرارات مهمة، وأن استخدامه يتم على مسؤولية المستخدم.
وقالت التقارير إنه رغم أن هذه التحذيرات ليست جديدة في عالم الذكاء الاصطناعي، حيث تعتمدها معظم الشركات كإخلاء مسؤولية قانوني، فإن صياغتها الصريحة في حالة Copilot بدت أكثر حدة.
وتكمن المفارقة في أن مايكروسوفت، التي تؤكد في الوقت ذاته على دمج Copilot في نظام ويندوز 11، وتسويقه كأداة إنتاجية متقدمة، تعود لتقليل سقف التوقعات بشأن موثوقيته عبر هذه الشروط.
وأضافت التقارير أن هذا التناقض يعكس التحدي الذي تواجهه الشركات التقنية بين الترويج لقدرات الذكاء الاصطناعي من جهة، والحد من المسؤولية القانونية من جهة أخرى.
تم نشر هذا المقال على موقع القيادي




