كولورادو هي الأولى في الدولة التي تمرر تشريعًا يتناول تهديد التحيز للذكاء الاصطناعي في قرارات محورية
لم يتم إقرار سوى مشروع قانون واحد فقط من أصل سبعة مشاريع قوانين تهدف إلى منع ميل الذكاء الاصطناعي إلى التمييز عند اتخاذ القرارات ذات الصلة – بما في ذلك تحديد من سيتم تعيينه، أو توفير المال لشراء منزل، أو رعاية طبية. وقع حاكم كولورادو جاريد بوليس بتردد على مشروع القانون في 17 مايو.
واجه مشروع قانون كولورادو وتلك التي تعثرت في واشنطن وكونيتيكت وأماكن أخرى معارك على العديد من الجبهات، بما في ذلك بين جماعات الحقوق المدنية وصناعة التكنولوجيا، وقلق المشرعين من الخوض في تكنولوجيا لا يفهمها سوى القليل، وشعر المحافظون بالقلق من خروجهم من الولاية. وإخافة الشركات الناشئة في مجال الذكاء الاصطناعي.
ووقع بوليس مشروع قانون كولورادو “مع تحفظات”، قائلا في بيان إنه يشعر بالقلق من اللوائح التي تقضي على ابتكارات الذكاء الاصطناعي. ويستمر مشروع القانون لمدة عامين ويمكن تعديله قبل أن يصبح قانونًا.
وكتب بوليس: “أشجع (المشرعين) على تحسين هذا الأمر بشكل كبير قبل أن يصبح ساري المفعول”.
يعد اقتراح كولورادو، إلى جانب ستة مشاريع قوانين شقيقة، معقدًا، ولكنه سيتطلب على نطاق واسع من الشركات تقييم مخاطر التمييز من الذكاء الاصطناعي الخاص بها وإبلاغ العملاء عندما يتم استخدام الذكاء الاصطناعي للمساعدة في اتخاذ قرار مهم بالنسبة لهم.
مشاريع القوانين منفصلة عن أكثر من 400 مشروع قانون متعلق بالذكاء الاصطناعي تمت مناقشتها هذا العام. ويستهدف معظمها شرائح الذكاء الاصطناعي، مثل استخدام التزييف العميق في الانتخابات أو إنتاج مواد إباحية.
تعتبر مشاريع القوانين السبعة أكثر طموحا، حيث تنطبق على الصناعات الرئيسية وتستهدف التمييز، وهو واحد من أكثر مشاكل التكنولوجيا انحرافا وتعقيدا.
وقال رمان شودري، مبعوث الذكاء الاصطناعي بوزارة الخارجية الأمريكية والذي قاد سابقًا فريق أخلاقيات الذكاء الاصطناعي في تويتر: “ليس لدينا في الواقع رؤية للخوارزميات المستخدمة، سواء كانت تعمل أم لا، أو ما إذا كنا نتعرض للتمييز”. .
وحش مختلف
في حين أن قوانين مكافحة التمييز موجودة بالفعل، فإن أولئك الذين يدرسون التمييز في الذكاء الاصطناعي يقولون إنه وحش مختلف، وقد تأخرت الولايات المتحدة بالفعل في تنظيمه.
وقالت كريستين ويبر، محامية الحقوق المدنية التي عملت في دعاوى قضائية جماعية بشأن التمييز بما في ذلك ضد بوينغ وتايسون فودز: “إن أجهزة الكمبيوتر تتخذ قرارات متحيزة على نطاق واسع”. والآن، يقترب ويبر من الموافقة النهائية على إحدى التسويات الأولى في البلاد في دعوى جماعية بشأن التمييز في مجال الذكاء الاصطناعي.
وقال ويبر: “لا ينبغي لي أن أقول إن الأنظمة القديمة كانت خالية تمامًا من التحيز أيضًا”. ولكن “لا يمكن لأي شخص أن ينظر إلا إلى هذا العدد الكبير من السير الذاتية في اليوم. لذلك لا يمكنك اتخاذ سوى عدد كبير جدًا من القرارات المتحيزة في يوم واحد ويمكن للكمبيوتر القيام بذلك بسرعة عبر أعداد كبيرة من الأشخاص.”
عندما تتقدم بطلب للحصول على وظيفة أو شقة أو قرض منزل، هناك فرصة جيدة لأن يقوم الذكاء الاصطناعي بتقييم طلبك: إرساله عبر الخط، أو تحديد درجة له، أو تصفيته. تشير التقديرات إلى أن ما يصل إلى 83% من أصحاب العمل يستخدمون الخوارزميات للمساعدة في التوظيف، وفقًا للجنة تكافؤ فرص العمل.
لا يعرف الذكاء الاصطناعي نفسه ما الذي يجب البحث عنه في طلب الوظيفة، لذلك يتم تدريسه بناءً على السير الذاتية السابقة. يمكن أن يتم تهريب البيانات التاريخية المستخدمة لتدريب الخوارزميات بشكل متحيز.
على سبيل المثال، عملت شركة أمازون على خوارزمية توظيف تم تدريبها على السير الذاتية القديمة: معظم المتقدمين من الذكور. عند تقييم المتقدمين الجدد، خفضت السيرة الذاتية بكلمة “نساء” أو تلك التي أدرجت كليات البنات لأنها لم تكن ممثلة في البيانات التاريخية – السير الذاتية – التي تعلمت منها. تم إفشال المشروع.
تزعم الدعوى الجماعية التي رفعها ويبر أن نظام الذكاء الاصطناعي الذي يسجل طلبات التأجير يخصص درجات أقل بشكل غير متناسب للمتقدمين من السود أو من ذوي الأصول الأسبانية. وجدت إحدى الدراسات أن نظام الذكاء الاصطناعي المصمم لتقييم الاحتياجات الطبية قد تجاوز المرضى السود للحصول على رعاية خاصة.
لقد سمحت الدراسات والدعاوى القضائية بإلقاء نظرة خاطفة على أنظمة الذكاء الاصطناعي، لكن معظم الخوارزميات تظل محجوبة. ويظهر استطلاع للرأي أجرته مؤسسة بيو للأبحاث أن الأميركيين لا يدركون إلى حد كبير أن هذه الأدوات تُستخدم. لا يُطلب من الشركات عمومًا الكشف صراحةً عن استخدام الذكاء الاصطناعي.
وقال ويبر: “إن مجرد سحب الستار حتى نتمكن من رؤية من يقوم بالفعل بالتقييم وما هي الأداة المستخدمة هو خطوة أولى ضخمة للغاية”. “القوانين الحالية لن تكون فعالة إذا لم نتمكن من الحصول على بعض المعلومات الأساسية على الأقل.”
هذا ما يحاول مشروع قانون كولورادو، إلى جانب مشروع قانون آخر باقي في كاليفورنيا، تغييره. إن مشاريع القوانين، بما في ذلك الاقتراح الرئيسي في ولاية كونيتيكت الذي تم رفضه في ظل معارضة الحاكم، متشابهة إلى حد كبير.
سيتطلب مشروع قانون كولورادو من الشركات التي تستخدم الذكاء الاصطناعي المساعدة في اتخاذ قرارات مهمة للأمريكيين لتقييم الذكاء الاصطناعي الخاص بهم سنويًا بحثًا عن أي تحيز محتمل؛ تنفيذ برنامج الرقابة داخل الشركة؛ أخبر المدعي العام للولاية إذا تم العثور على تمييز؛ وإبلاغ العملاء عند استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرار لهم، بما في ذلك خيار الاستئناف.
تخشى النقابات العمالية والأكاديميون من أن الاعتماد على الشركات التي تشرف على نفسها يعني أنه سيكون من الصعب معالجة التمييز بشكل استباقي في نظام الذكاء الاصطناعي قبل أن يحدث أي ضرر. وتخشى الشركات أن تؤدي الشفافية القسرية إلى كشف الأسرار التجارية، بما في ذلك في الدعاوى القضائية المحتملة، في هذا المجال الجديد الذي يتسم بالمنافسة المفرطة.
كما دفعت شركات الذكاء الاصطناعي، وحصلت بشكل عام، على بند يسمح فقط للمدعي العام، وليس المواطنين، برفع دعاوى قضائية بموجب القانون الجديد. وقد تركت تفاصيل التنفيذ للمدعي العام.
في حين أن شركات الذكاء الاصطناعي الكبرى كانت إلى حد ما على متن هذه المقترحات، فقد قالت مجموعة من شركات الذكاء الاصطناعي الأصغر حجمًا ومقرها كولورادو إن المتطلبات قد تكون قابلة للإدارة من قبل شركات الذكاء الاصطناعي العملاقة، ولكن ليس من خلال الشركات الناشئة الناشئة.
قال لوغان سيركوفنيك، مؤسس موقع Thumper.ai، في إشارة إلى مجال الذكاء الاصطناعي: “نحن في عصر جديد تمامًا من الحساء البدائي”. “إن وجود تشريعات مقيدة بشكل مفرط تجبرنا على وضع تعريفات وتقييد استخدامنا للتكنولوجيا أثناء تشكيل هذا الأمر سيكون ضارًا بالابتكار.”
واتفق الجميع، إلى جانب العديد من شركات الذكاء الاصطناعي، على أن معالجة ما يسمى رسميًا “التمييز الخوارزمي” أمر بالغ الأهمية. لكنهم قالوا إن مشروع القانون كما هو مكتوب لا يحقق هذا الهدف. وبدلاً من ذلك، اقترحوا تعزيز القوانين الحالية لمكافحة التمييز.
يشعر شودري بالقلق من أن الدعاوى القضائية مكلفة للغاية وتستغرق وقتًا طويلاً بحيث لا يمكن أن تكون أداة إنفاذ فعالة، ويجب أن تتجاوز القوانين بدلاً من ذلك ما تقترحه كولورادو أيضًا. وبدلاً من ذلك، اقترح تشودري وأكاديميون منظمة مستقلة ومعتمدة يمكنها اختبار التحيز المحتمل في خوارزمية الذكاء الاصطناعي بشكل صريح.
وقال شودري: “يمكنك أن تفهم وتتعامل مع شخص واحد يمارس التمييز أو التحيز”. “ماذا نفعل عندما يتم دمجها في المؤسسة بأكملها؟”
___
بداين هو عضو في هيئة وكالة أسوشيتد برس/تقرير لمبادرة أخبار ستيت هاوس الأمريكية. تقرير لأمريكا هو برنامج خدمة وطنية غير ربحي يضع الصحفيين في غرف الأخبار المحلية للإبلاغ عن القضايا السرية.
المصدر
الكاتب:
الموقع : www.cbsnews.com
نشر الخبر اول مرة بتاريخ : 2024-05-24 17:45:47
ادارة الموقع لا تتبنى وجهة نظر الكاتب او الخبر المنشور بل يقع على عاتق الناشر الاصلي
تم نشر الخبر مترجم عبر خدمة غوغل