لماذا يمكن للكونغرس الانسحاب على قواعد منظمة العفو الدولية للدولة

بموجب الخطة التي يجب مراعاتها في مجلس النواب الأمريكي ، لن تكون الدول قادرة على تطبيق قواعدها بشأن تكنولوجيا الذكاء الاصطناعي لمدة عقد. تشريعفي التعديل مفهومة هذا الأسبوع ، من قبل لجنة الطاقة والتجارة في مجلس النواب ، قيل أنه لا يوجد دولة أو فرعية سياسية “يمكن أن تنفذ أي قانون أو لائحة تنظم نماذج الذكاء الاصطناعي أو نظام الذكاء الاصطناعي أو نظام اتخاذ القرار التلقائي.” سيتطلب الاقتراح موافقة كل من الكونغرس والرئيس دونالد ترامب قبل أن يصبح قانونًا.
قال مطورو الذكاء الاصطناعى وبعض المشرعين أن الإجراءات الفيدرالية ضرورية لمنع الدول من تصحيح قواعد مختلفة في جميع أنحاء الولايات المتحدة والتي يمكن أن تقلل من تطوير التكنولوجيا. منذ أن انفجر مشهد الدردشة GPT في نهاية عام 2022 ، أجبر النمو السريع في الذكاء الاصطناعي للشركات على تناسب التكنولوجيا في المزيد والمزيد من الأماكن. الآثار الاقتصادية مهمة ، لأنه في عرق الولايات المتحدة والصين لمعرفة أي بلد سوف يسود ، ولكن الذكاء الاصطناعي التوليدي يشكل السرية والشفافية وغيرها من المخاطر للمستهلكين الذين حاول المشرعون الغضب.
وقال المؤسس والرئيس التنفيذي لشركة البيانات A ، Alexander Wang ، للمشرعين خلال بعضهم البعض: “نحتاج إلى معيار اتحادي واضح كصناعة وكدولة ، أيا كان”. جلسة استماع أبريل. “لكننا بحاجة إلى واحدة ، نحتاج إلى توضيح معيار فيدرالي وإيقاف النتائج التي يكون لديك فيها 50 معايير مختلفة.”
يمكن أن تعني الجهود المبذولة لتقييد قدرة الدول على إدارة الذكاء الاصطناعي أن المستهلكين يتم تقليلهم إلى تقنية تمر بسرعة بكل جانب من جوانب الحياة الأمريكية. وقالت أنجانا سوسرلا ، أستاذة في جامعة ولاية ميشيغان ، تعليم الذكاء الاصطناعي: “كان هناك الكثير من المحادثة على مستوى الولاية ، وسأعتقد أنه من المهم بالنسبة لنا التعامل مع هذه القضية على العديد من المستويات”. “يمكننا التعامل معها على المستوى الوطني. يمكننا أيضًا التعامل معها على مستوى الولاية. أعتقد أننا بحاجة إلى كليهما.”
لقد بدأت العديد من الدول بالفعل في تنظيم الذكاء الاصطناعي
ستمنع اللغة المقترحة الدول من فرض أي قواعد ، بما في ذلك الأشخاص في الكتب. الاستثناءات هي القواعد واللوائح التي تجعل الأمور سهلة لنمو الذكاء الاصطناعى وتلك التي تطبق نفس المعايير على النماذج والأنظمة غير المنافسة التي تعمل على حد سواء. لقد بدأ هذا النوع من القواعد بالفعل في الظهور. التركيز الأكبر ليس في الولايات المتحدة ، ولكن في أوروبا ، حيث فرض الاتحاد الأوروبي بالفعل معايير الذكاء الاصطناعي. لكن الدول بدأت في الانضمام إلى الإجراءات.
كولورادو مرت مقعد في العام الماضي ، حول سلامة المستهلكين ، في عام 2026 تم تنفيذها. تتبنى كاليفورنيا أكثر من عشرة من الذكاء الاصطناعي قواعد العام الماضي. الدول الأخرى لديها قواعد ولوائح تتعامل غالبًا مع قضايا محددة مثل فاكس العميق أو مطوري الذكاء الاصطناعى الذين يحتاجون إلى نشر معلومات حول بيانات التدريب الخاصة بهم. على المستوى المحلي ، تحل بعض اللوائح أيضًا التمييز المحتمل للعمالة إذا تم استخدامها لتوظيف نظام الذكاء الاصطناعي.
وقال آرسن كورنيا ، شريك مكتب المحاماة: “عندما ترغب الولايات في تنظيم الذكاء الاصطناعي في الذكاء الاصطناعي ، فإن الولايات على الخريطة بأكملها”. حتى الآن في عام 2025 ، قدم المشرعون في الولايات أقل 550 نصيحة وفقا للمؤتمر الوطني للمشرعين في الولاية ، حول الذكاء الاصطناعي. في جلسة لجنة مجلس النواب الشهر الماضي ، أشار الجمهوري جاي أوبنولت من كاليفورنيا إلى رغبته في تجاوز اللوائح على مستوى الولاية. وقال “لدينا قدر محدود من المدرج التشريعي بحيث يمكن حل الولايات قبل أن تتقدم الولايات”.
ما معنى الخطوة في لائحة AI للدولة
لقد طلب مطورو الذكاء الاصطناعى من أي حراس أن يكونوا دائمين وسلس. خلال لجنة التجارة في مجلس الشيوخ جلسة الاستماع الأسبوع الماضي، قال الرئيس التنفيذي المفتوح ، سام التمان ، للجمهوريان في تكساس سان تيد كروز إن النظام التنظيمي للاتحاد الأوروبي على غرار الاتحاد سيكون “كارثيًا” للصناعة. بدلاً من ذلك ، اقترح بدلاً من ذلك أن تقوم الصناعة بتطوير معاييرها.
عندما سئل الديموقراطي في هاواي سان براين شيتز ، إذا كانت الصناعة نفسها كافية في الوقت الحالي ، قال التمان إنه يعتقد أن بعض الأوصياء سيكونون جيدًا ، لكن “من السهل الابتعاد. كما تعلمت المزيد عن عمل العالم ، لدي الكثير من الخوف والمزيد من الخوف.
وقال كوريين إن مخاوف الشركات – كل من المطورين الذين يصنعون نظام الذكاء الاصطناعى و “الدبلوماسيين” الذين يستخدمونها في التفاعل مع المستهلكين – غالباً ما ينشأون من المخاوف التي تطلبها الدول أعمالًا مهمة مثل تقييم الأثر أو ملاحظات الشفافية قبل إطلاق المنتج. قال أنصار المستهلكين إن هناك حاجة إلى مزيد من القواعد ، وأن عرقلة قدرات الدول يمكن أن تلحق الضرر بخصوصية وسلامة المستهلكين.
وقال بن وينترز ، مدير الخصوصية في اتحاد المستهلك في أمريكا ومدير الخصوصية: “يتم استخدام الذكاء الاصطناعى على نطاق واسع لاتخاذ قرارات بشأن حياة الأشخاص دون أي شفافية أو مساءلة أو مرافق – كما أنه يساعد في التبريد والتقليد والمراقبة”. “ستؤدي أكثر من 10 سنوات إلى مزيد من التمييز ، والمزيد من الاحتيال وأقل تحكمًا في كلمات المد ، فهو بالاقتران مع شركات التكنولوجيا على الأشخاص الذين يؤثرون عليها.”
وقال كورندو إن النشر على قواعد وقواعد الدولة المحددة. نتيجة لذلك ، يمكن التعامل مع المزيد من مسائل حماية المستهلك في المحكمة أو من قبل المدعي العام للدولة. ستظل القوانين الحالية التي لا تخص الذكاء الاصطناعى ، والقوانين الحالية حول الأساليب غير العادلة والاحتيالية. وقال “الوقت سيخبر كيف سيترجم القضاة هذه القضايا”.
وقالت سوسالا إن مقياس منظمة العفو الدولية على نطاق واسع في الصناعات يعني أن الدول يمكن أن تكون قادرة على التحكم في الأمور مثل الخصوصية والشفافية ، دون التركيز على التكنولوجيا. ولكن يمكن تقديم رطوبة حول تنظيم الذكاء الاصطناعي في مثل هذه السياسات. قال: “يجب أن يكون توازنًا بين” لا نريد إيقاف الابتكار “، ولكن من ناحية أخرى ، نحتاج أيضًا إلى إدراك أنه يمكن أن يتم إنتاج نتائجها الحقيقية”.