آیا هوش مصنوعی اخلاقی است؟ سونی تمام محصولات را بررسی می کند

1
۱۳,۸۰۳

توکیو ، ژاپن – در آینده ای که یک شهر هوشمند کاملا توسط هوش مصنوعی اداره می شود ، ساکنان ممکن است برای اولین بار به یک بار (فروشگاه نوشیدنی) بروند ، اما “متصدی بار نوشیدنی مورد علاقه شما را می داند”.

این همان چیزی است که Bjarke Ingels ، شریک موسس شرکت معماری دانمارکی BIG ، در کنفرانس جهانی فناوری وب گفت.

اطلاعات مربوط به آب و هوا ، عادات غذایی و سایر داده ها برای درک نیاز های ساکنان مشخص خواهد شد. اما اگر هوش مصنوعی راحتی بیشتری در مصرف کنندگان ایجاد کند ، می تواند ناخواسته از الگوریتم های تبعیض آمیز استفاده کند و منجر به مشکلات شرم آوری شود.

به نقل از موسسه نیکی آسیا ، آنها متوجه شده اند که شرکت ژاپنی سونی بررسی محصولات خود را با استفاده از هوش مصنوعی برای خطرات اخلاقی آغاز می كند. اگر محصولی از نظر اخلاقی نامناسب تشخیص داده شود ، شرکت محصول را بهبود می بخشد یا توسعه آن را متوقف می کند.

همانطور که هوش مصنوعی به دستگاه های بیشتری راه می یابد ، مسئولیت های توسعه دهنده افزایش می یابد و شرکت ها رهنمود های اخلاقی AI را تقویت می کنند.

خطرات تبعیض و سو استفاده توسط هوش مصنوعی باعث افزایش نگرانی در سراسر جهان می شود.

در سال 2019 ، یک تنظیم کننده ایالات متحده از گلدمن ساکس برای احتمال تبعیض جنسیتی در الگوریتم مورد استفاده برای کار با کارت اپل (کارت اعتباری) تحقیقات خودش را آغاز کرد. او در موردزوج های متاهل دریافت که شوهر محدودیت بالاتری در هزینه ها نسبت به زن مجاز دانسته است ، حتی اگر زن از اعتبار بالاتری در پرداخت ها برخوردار باشد.

این اتفاق به دنبال حادثه ای در سال 2018 در گوگل رخ داد كه كارمندان متوجه شدند از فناوری هوش مصنوعی این شركت در وسایل نقلیه هوایی بدون سرنشین نظامی استفاده می شود ، كه هزاران كارمند را بر آن داشت تا به این قضیه اعتراض كنند.

Gakuse Hoshina ، رئیس مرکز هوش مصنوعی در Accenture ، گفت: اگر هوش مصنوعی تصمیم اشتباهی اتخاذ کند یا منجر به آسیب جسمی شود ، “این می تواند خطری برای تداوم تجارت باشد”.

از بهار سال آینده ، سونی با استفاده از یک دستورالعمل داخلی برای تایید سازگاری یک محصول ، “اخلاق هوش مصنوعی” را به روش های کنترل کیفیت خود اضافه می کند.

سونی از توسعه محصول تا بعد از عرضه ، مقالات آلوده به هوش مصنوعی را مورد بررسی قرار خواهد داد ، به خصوص اگر این مقالات در محافظت از حریم خصوصی موثر باشند. هر محصولی که معیار های عملکرد اخلاقی هوش مصنوعی را نداشته باشد اصلاح یا متوقف می شود.

یک کمیته اخلاق در هوش مصنوعی ، که مدیر عامل یک شرکت آن را به عنوان مدیر یک بخش منصوب می کند ، در صورت شناسایی هر مشکلی ، اختیار توقف تولید آن محصول را خواهد داشت. حتی محصولات در حال توسعه نیز احتمالا توسعه شان متوقف می شود. در صورت کشف مشکلات ، محصولات از قبل فروخته شده را نیز می توان فراخوانی کرد.

از آنهایی که هوش مصنوعی در بسیاری از وسایل الکترونیکی ریشه دوانده است که این را می توان در سگ هوشمند ، دستیار سر آشپز هوشمند ، خودروی هوشمند ، چیپ های هوشمند و تجهیزات پزشکی و … پیدا کرد ، طبیعی است که این شرکت با سابقه بخواهد بدون مشکل کارش را پیش ببرد و اطمینان حاصل کند در آینده اتفاقی ناگهانی رخ نخواهد داد.

نظر شما در این باره چیست؟ کمتر شرکتی به دنبال موضوعات اخلاقی هوش مصنوعیست و این فقط از عهده یک شرکت ژاپنی بر می آید که اخلاق برای مردمانش بسیار مهم است.

[تعداد: 1    میانگین: 5/5]

یک دیدگاه

  1. در دنیایی که اخلاقیات حرمتی ندارد، مایه ی خوشحالیست که همچنان شرکتهای بزرگی هستند که فقط به پول فکر نمیکنند. همین زیباییهاست که اجازه نمیدهد جای سونی را به دیگری واگذار کنم.

    پاسخ

دیدگاهتان را بنویسید

لطفاً دیدگاه خود را وارد کنید
Please enter your name here