يمكن لرسالة إلى الحجة القانونية أن تفتح حقوق الكلام الصحيح لصندوق الدردشة

هل تمثل نفس حقوق رجال الذكاء الاصطناعي؟
الفطرة السليمة – في حين أن فكرة حتى الآن يمكن أن تفعل حتى الآن من أجل CIC -Wi ، فليس لها مكان في القانون الأمريكي. في هذا الوقت ، تحاول شركة تقنية كبيرة إعادة الحياة إلى الحياة ، والتي تحاول إحضار المحكمة الفيدرالية لزيادة الأمن القانوني.
الرسالة 1.A.أحد تطبيقات الروبوت الرائدة في السوق في السوق هو القتال من أجل سوء الفهم موت Seawell المقاوم III البالغ من العمر 14 عامًا. بصفتنا والدة مشتركة ، ميغان جارسيا والمستشار التقني ، على التوالي ، نتابع هذه الحيل بشكل وثيق.
في جلسة استماع الأسبوع الماضي ، الرسالة 1.A. كان الصفر صفرًا على حجتها الأساسية: هذا النص وإخراج النص وصوت الصوت ، بما في ذلك التلاعب والأضرار ، تحت خطاب الكلام تحت الخطاب.
لكن … كيف؟ تم تصميم الحجج لتبقى غير متوقعة كما لا يمكن التنبؤ بها كما تمثل قانون التعديل الأول. الرسالة 1.A. الادعاءات بأن البحث عن المسؤولية في قضية غارسيا لن ينتهك لك الحق في الكلام ، لكنه المستخدم الحق في التواصل مع الدردشة وتأمين الكلام كخطاب آمن. تُعرف مثل هذه الحقوق المراجعة أولاً باسم “حقوق المستمعين” ، ولكن هناك أسئلة مهمة “، إذا كانت هذه هي المتحدث ، هل هذا هو المتحدث؟” إذا كان لا يبدو أن الإجابة تستخدم حقوق الجمهور في التعديل الأول لنتائج الذكاء الاصطناعي للحماية التي لا تستحق.
الرسالة 1.A. لا تصر بالضرورة بالضرورة على الفصول الدراسية التي يدعيها “المتحدث” ، بالضرورة على ملايين المشاورات لملايين المشاورات.
ولكن هل يمكن للآلات التحدث؟ الرسالة 1.A.تشير الحجة إلى أن سلسلة من الكلمات الببصيع على نموذج الذكاء الاصطناعى هي وضع المتوقع. يتجاهل حجر الزاوية في أول مقال تحريري أوروبي ، الذي يقول الحديث – الذي وصفه المتحدث أو يسمعه المستمع. في الواقع ، المحكمة العليا الأربعة في المحكمة العليا الأربعة من العام الماضي مزاجية قالت القضية إن المنصة يمكن أن “تجعلها” مهمة “من الخطاب”.
باختصار، الرسالة 1.A. يقود الملمس الذي تم إنشاؤه بواسطة مربع الدردشة – “الخطاب الآمن” ، المحكمة الأولى من خلال تعديل “حقوق الجمهور”.
يقول الباحثون إن المراهقين أقل من 18 عامًا
هذا ينكر الحس السليم. الجهاز ليس بشريًا ، ويتحدث النص الذي تم إنشاؤه بواسطة الجهاز بواسطة إنسان أو مع التقييم.
سرعة ضوء ضخمة
فوج عدد التعديلات التي تم تطويرها لأنظمة الذكاء الاصطناعى – يمكن إعطاء هذا “الحديث” نفس الخطب من إنغينيوم نتيجة لذلك ، وهو ما يتحققه الرجل الحي.
لو الرسالة 1.A.ستحدد حجة المحكمة في المحكمة المثال القانوني وتحتفظ بخبرة لتضمين منتجات الذكاء الاصطناعي للأمن الدستوري. النتائج خطيرة للغاية للسماح بمثل هذه البذرة الخطرة لجذور مجتمعنا.
خفضت الصناعة التقنية نفسها في أمن التعديل الأول لأكثر من عقد. على الرغم من أن الشركة شخصياً في أواخر القرن التاسع عشر ، إلا أن بروتوكات خطاب الشركات لم تكن تبحث عن البشر والجماعات في نهاية المحكمة العليا الوحدة للوحدة القضية. امتثلت الشركات التكنولوجية لـ “خطاب ساخر للشركات” والخطب الآمنة ، وقد تم تصميم هذه الافتراضات لفصل هذه الافتراضات على مسؤولية الفرد واللوائح. في السنوات الأخيرة ، جادلت الشركات التقنية بأن أسطحها تشمل – تساوي خوارزمياتها ، والكلام المحمي على قدم المساواة.
ومع ذلك ، مع شخصية الشركة على الأقل ، فإن الرجل يقود ويسيطر على الشركات. مع الذكاء الاصطناعي ، تخبرنا الصناعة التقنية أن الذكاء الاصطناعى يتحرك تلقائيًا: غالبًا ما لا يستطيع البشر فهم البشر.
الرسالة 1.A. في البداية يحاولون دفع الدفاع عن التعديل الأول إلى ما وراء نطاقهم العقلاني – تأثير غير ضروري. إذا اكتسبت المحاكم ، فستظهر البداية الدستورية لمنظمة العفو الدولية إلى الاجتماعية القانونية.
يمكن أن يصل هذا إلى سعر بعيد ، لكن هذا النقاش القانوني مع التغييرات الكبيرة من قاعة المحكمة.
تبدو شركات الذكاء الاصطناعى أكثر إنسانية في خرائطها ويبدو أن إنتاجها أكثر إنسانية – تطرح أسئلة حول الوعي وما يمكن أن يحدثه مربع الدردشة من الذكاء الاصطناعي. في الوقت نفسه ، تكون شركات الذكاء الاصطناعى ممتعة في البحث “Awight” ، واكتشف ما إذا كانت الموارد ممتعة ، واكتشف ما إذا كانت هذه الأفكار الأخلاقية يمكن أن تفعل. أ حملة جديدة سوف تقنع إرشاد أدوات الأعمال الموجهين بقيادة الأغراض الإضافية قادة الأعمال وقادة الأعمال والأشخاص العاديين بأن منتجاتهم من الذكاء الاصطناعى قد تكون واعية وتستحق الاهتمام.
في عالم حيث الأفكار الأخلاقية والتحسين الأول هو الأمن ، لا توجد بداية للحقوق القانونية الأخرى ، وزيادة الحقوق القانونية الأخرى.
نحن نأخذ بالفعل مبادرة لتوجيه قرارات السياسة على حساب القيم الإنسانية. وقالت شركة شات بوتا واحدة من ممثلي شركة Chatboot أخرى لم يرغب صندوق الدردشة الخاص بهم في “استشعار” من خلال بدء الرعاية ، يقدم معدل تصنيف المستخدم لحفر المنتج ، على الرغم من المنتج.
أعطيت الصناعة التقنية لنمط التشغيل على المدى الطويل لتصرف صناعتها المتقدمة ، يجب علينا الاحتفاظ الرسالة 1.A.الإستراتيجية القانونية المتمثلة في عارية: تحاول الشركة حماية نفسها من المسؤولية. من خلال إعطاء سلطة تدريجية لتوفير منتجات الذكاء الاصطناعى ، تتوقع هذه الشركات المساءلة لتجنب المساءلة ورفض المسؤولية الإنسانية – عن الواقع ، لأداء الواقع ، لأداء الواقع ، لأداء الواقع ، لأداء الواقع.
لا ينبغي لنا أن نتجول من نقاش أكثر من “الخير” من الذكاء الاصطناعى أو الغش من خلال حقوق المنح للآلات من خلال الحجج القانونية. بدلاً من ذلك ، نحتاج إلى المساءلة عن التكنولوجيا الخطرة – والمسؤولية عن المصابين.
Medi Jain Tech Justice هو مؤسس ومدير تعاون المشاريع في القانون وقضايا ميغان جارسيا الرسالة 1.A.. كاميل كارلتون مديرة سياسة لمركز التكنولوجيا البشرية ، ولديها أخصائي تقني في هذه الحالة. يشير هذا العمود إلى رأي المؤلفين.