نویدنو -  کتاب -   رحمان هاتفی  درباره ما -  آرشیو

از همین قلم

 
 
 
 

2019-06-19

نویدنو  28/03/1398 

 

 

  • امروزه، الگوریتم ها تصمیم می گیرند چه کسی باید شغلی به دست آورد، کدام بخش از شهر نیازمند توسعه است، چه کسی می تواند وارد دانشگاه شود، و در مورد جرم، حکم چه باید باشد. هوش عالی ربات ها تهدیدی بر زندگی ای که ما می شناسیم نیست، بلکه غلبه ماشین ها تهدیدی بر هزاران تصمیمی است که برای زندگی ما و پی آمد های سرنوشت ساز اجتماعی حیاتی هستند. 

 

 

مطلب دریافتی

هوش مصنوعی و تهدید انسانیت ما

پرابیر پورکایستا- برگردان : داود جلیلی

استفان هاوکینزچند سال قبل هشدار داد[1] که هوش مصنوعی می تواند فاتحه نژاد انسان را بخواند، تهدیدی که توسط الون ماسک Elon Musk ، بنیان گذار تسلاTesla  ، بیل گیتس و بسیاری دیگر پژواک یافت. این چشم اندازی آخر زمانی است که ممکن است ربات هایی که ما خلق می کنیم، فتوا دهند که ما مدل منسوخی شایسته " بازنشستگی " هستیم. حقیقت، حقیقتی پیش پا افتاده، آن است که ، ما اجازه می دهیم ماشین آلگو ریتم ها [2]  بر آن چه که پیش از این تصمیم های انسانی، تصمیم های اتخاذ شده از سوی دولت ها، شرکت ها و حتی تصمیم های خود ما بودند غلبه کنند.

 امروزه، الگوریتم ها تصمیم می گیرند چه کسی باید شغلی به دست آورد، کدام بخش از شهر نیازمند توسعه است، چه کسی می تواند وارد دانشگاه شود، و در مورد جرم، حکم چه باید باشد. هوش عالی ربات ها تهدیدی بر زندگی ای که ما می شناسیم نیست، بلکه غلبه ماشین ها تهدیدی بر هزاران تصمیمی است که برای زندگی ما و پی آمد های سرنوشت ساز اجتماعی حیاتی هستند. 

این تصمیم ها چیستند، و ماشین ها آن تصمیم ها را چگونه می گیرند؟

فرض کنید شما برای وامی ثبت نام می کنید. حجم عظیمی از داده های مالی ایجاد می کنید – گردش حساب کارت های اعتباری، تراکنش های بانکی، دریافت از خود پرداز ها – تمام این داده ها در دسترس هستند و از سوی الگوریتم های کامپیوتر پردازش می شوند. با وصل شدن ادهار (کارت ملی 12 رقمی هندی ها) به حساب های بانکی شما و کارت های پان[3] تقریبا هر تراکنشی که شما بر سر مقدار معینی در هند انجام می دهید، برای چنین پردازشی قابل دست یابی است. این داده های گذشته برای همیشه بایگانی می شوند– بایگانی کردن تمام داده ها از بایگانی کردن برخی داده های گزینشی و پاک کردن بقیه ارزانتراست. تمام این (داده )ها توسط الگوریتم ها برای تعیین یک امتیاز ساده ریسک اعتباری شما پردازش می شود. بر اساس این امتیاز نهایی ، شما رتبه بندی می شوید و تصمیم  به دادن وام به شما اتخاذ می شود. 

موضوع در اینجا ساده است. آن چه در نهایت وام گرفتن یا نگرفتن شما را تعیین می کند امتیاز ماشین است – نه آن که شما کی هستید،  چه دست آوردی دارید، کار شما چقدر برای کشور(یا جامعه) اهمیت دارد، چون برای ماشین ، شما تنها مجموع تراکنش هایی هستید که باید پردازش و به یک نمره ساده تقلیل یابد.

ماشین این پردازش را چگونه انجام می دهد ؟ ماشین ها براساس الگوریتم هایی که ما می نویسیم داده های ما را می گیرند و نمره ای برای تصمیم گیری آماده می کنند. کسانی که نمره بندی می شوند، هیچ کنترلی بر چنین تصمیم هایی ندارند. هیچ درخواست تجدید نظری (علیه این تصمیم ها) وجود ندارد. الگوریتم ها ظاهرا دارایی های فکری هستند، از این رو با جدیت از راز های آن ها محافظت می شود. بدترین بخش (موضوع ) آن است که برخی از الگوریتم هایی که ما می نویسیم ، حتی برای کسانی که آن ها را نوشته اند قابل درک نیستند. حتی خالقین چنین الگوریتم هایی نمی دانند که چگونه یک الگوریتم خاص با نمره خاصی بیرون می آید!  

کتی اونیل ریاضی دان و دانشمند داده ها، در کتاب تازه خود " سلاح های کشتار ریاضی "[4] ، به ما می گوید که عینیت ظاهری پردازش حجم عظیم داده ها توسط الگوریتم ها دروغ است. خود الگوریتم ها چیزی جز پیش فرض ها و ذهنیت ما که کد گذاری شده اند[5] نیستند – " آن ها صرفا گزینه های کد گذاری شده در داخل توابع ریاضی هستند"

وقتی که ما داده های عظیمی را که از طریق رد پاها ی دیجیتال روزانه در "گزینه ها" یا "تصمیم " های ماشین ایجاد کرده ایم  کاملا تغییر دهیم چه اتفاقی می افند؟ گوگل[6] تبلیغاتی برای شغل های با حقوق بالای شگفت انگیز برای مردان ارائه می کرد، افریقایی تبارها ( برای به دست آوردن ان شغل )جمله های طولانی تری به کار می گرفتند چون از سوی یک الگوریتم ارزیابی خطرقضایی برای جرائم تکراری بعنوان پرخطرعلامت گذاری شده بودند.آن (الگوریتم) صریحا از نژاد مجرم استفاده نمی کرد، بلکه از آن چه گفته بودند، اطلاعات سایر اعضا خانواده، تحصیلات و درآمد برای برآورد خطر استفاده می کرد، یعنی همه آن چه که روی هم رفته نمایشگر نژاد نیز بود .  

 یکی از بدترین مثال های یک چنین نمره بندی در امریکا ، محاسبه حق بیمه برای راننده ها بود. پژوهش گری دریافت که از راننده های کم در آمد و بدون موارد رانندگی در حال مستی، نسبت به اشخاص پر در آمد، اما با موارد رانندگی در حال مستی حق بیمه بیشتری خواسته می شود. این یک تبعیض آشکاربود – مستی و رانندگی احتمالا تکرار شدنی و خطر آشکاری برای تصادف ها است. الگوریتم "به درستی" نتیجه گرفته بود که اشخاص کم در آمد نسبت به افراد پر در آمد ظرفیت کم تری برای خرید بیمه دارند، و از این رو می توانند برای حق بیمه بالاتر فریب داده شوند. الگوریتم نه به رانندگی سالم، بلکه به حداکثر کردن سود شرکت بیمه توجه داشت .   

مشکلات ژرف تر

مشکل تنها تمایل ذهنی افرادی که الگوریتم ها، یا اهداف الگوریتم ها را کد گذاری می کنند نیست ، بلکه بسیار عمیق تر است. اهداف در داده ها و مدل های به اصطلاح پیش گویانه ای که ما با استفاده از این داده ها می سازیم قرار دارند. چنین داده ها و مدل هایی به سادگی واقعیت عینی درجه بالایی از نابرابری را که در داخل جامعه وجود دارد منعکس می کنند، و آن را در آینده از طریق پیش بینی های خود تکرار می کنند.

مدل های پیش گویانه چیستند؟ بر اساس تعریف از مدل های پیش گویانه، ما از گذشته برای پیش بینی آینده استفاده می کنیم . حجم عظیمی از داده های در دسترس را برای ایجاد مدل هایی مورد استفاده قرارمی دهیم، که خروجی "مطلوب" را با یک سری از داده های ورودی مرتبط می کند. خروجی می تواند یک نمره در رابطه با اعتبار، شانس موفقیت در یک دانشگاه، یک شغل و غیر آن باشد. داده های گذشته افرادی که "موفق" بوده اند – برخی خروجی های متغیر ویژه - به عنوان نشان دهنده های موفقیت انتخاب می شوند و با داده های مختلف اجتماعی و اقتصادی نامزد ارتباط داده می شوند. این مرتبط سازی سپس برای رتبه هر نامزد جدید در شرایط امکان موفقیت بر اساس پرونده او مورد استفاده قرارمی گیرد. با استفاده از یک تمثیل قیاسی، مدل های پیشگویانه مانند راندن اتوموبیل تنها با نگاه به آینه بغل است. 

نمره ای برای موفقیت ،خواه یک شغل، پذیرش در دانشگاه، یا حکم زندان باشد، به شکلی نابرابری موجود در جامعه را بازتاب می دهد. یک افریقایی تبار در امریکا، یا یک دالیت[7] یا یک مسلمان در هند، نباید با نژاد، کاست یا مذهب تعریف شود. داده های تراکنش های اجتماعی او از قبل پیش داوری شده و جهت دار هستند.هر نمره دهی الگوریتم با نمره ای که موفقیت آینده ان ها را بر مبنای گروه هایی که امروز موفق هستند پیش بینی خواهد کرد به پایان خواهد رسید. خطراین مدل ها آن است که نژاد، یا کاست یا مذهب ممکن است صریحا بعنوان داده موجود نباشد، اما میزبان گروه کاملی از داده های موجود است که بعنوان نایب های این "متغیرها" عمل می کند.

چنین مدل های پیشگویانه نه تنها به واسطه افکار کسانی که مدل ها را خلق می کنند، بلکه به خاطرماهیت ذاتی تمام مدل های پیشگویانه جهت دارهستند یعنی آن چه را نمی بینند نمی توانند پیشگویی کنند. آن ها در نهایت برای تکرار آن چه در گذشته موفق دیده اند تلاش می کنند. آن ها به طور ذاتی نیروهای محافظه کاری هستند که برای تکرار نا برابری های موجود در جامعه تلاش می کنند. و مانند تمام فن آوری ها ، آن چه را امروز موجود است بر فراز آن چه در جهان جدید است تقویت می کنند. 

پس از بحران بازارهای مالی در سال 2008 ، امانوئل درمن و پاول ولموت[8] دو مدل ساز "مانیفست( بیانیه) مدل سازان مالی"[9] را نوشته بودند. این بیانیه بر خطوط مانیفست کمونیست مدل سازی شده بود . بیانیه با " شبحی در حال رفت و آمد در بازارهاست – شبح عدم نقدینگی ، اعتبارغیر قابل پرداخت، و شکست مدل های مالی" آغاز می شود. بیانیه با سوگند بقراطی[10] مدل سازان خاتمه می یابد :

-          به یاد خواهم داشت که من جهان را نساختم، و جهان در معادله های من صدق نمی کند.

-          اگرچه من جسورانه از مدل ها برای برآورد ارزش استفاده خواهم کرد، اما بیش از اندازه تحت تاثیر ریاضیات قرار نخواهم گرفت.

-          من هرگز واقعیت را بی آن که توضیح دهم چرا چنین کرده ام قربانی ظرافت نخواهم کرد.

-          افرادی را که از مدل من با آرامش کاذب نسبت به دقت آن استفاده می کنند نخواهم بخشید. در عوض مفروضات و نادیده انگاری های آن را تصریح خواهم کرد.

-            من درک می کنم که کارمن تاثیرات عظیمی در جامعه و اقتصاد دارد که، بسیاری از آن تاثیرات فراتر از درک من است.

جامعه هوش مصنوعی نسبت به خطرهای چنین مدل های مسلط شونده بر جهان درحال بیدارشدن است. برخی از این ها حتی ناقض تضمین های قانونی علیه تبعیض هستند. اکنون بحث های ایجاد سازمان امنیت الگو ریتم[11]، به نحوی که بتوان الگوریتم ها را شفاف و جوابگو ساخت، در امریکا وجود دارد. ما باید بدانیم چه چیزی کد گذاری می شود ، و اگر لازم باشد، دریابیم چراالگوریتم با تصمیم معینی بیرون می آید یعنی الگوریتم ها باید قابل رسیدگی باشند. گفتن آن که " کامپیوتر آن را انجام داد" دیگر بسنده نیست . 

در سال 2017 ، به طور همانندی، گروهی از پژوهشگران هوش مصنوعی دراسیلومار[12] دیدار و رشته ای از اصول را برای آن چه باید هدف هوش مصنوعی باشد – خیر عمومی، عدم استفاده ازهوش مصنوعی در رقابت تسلیحاتی، رفاه مشترک- ترسیم کردند. اصول ترسیم شده در سال 1975، اگر چه به قدرت (همایش) اسیلومار نبود، اما نوع معینی از فن آوری دی ان ای[13] را در آن زمان ممنوع اعلام کرد، آن (اصول) هنوز هم به روشنی بیان می کنند که هوش مصنوعی به توسعه برای خیر عمومی و  تنظیم به صورت اجتماعی نیاز دارد. انسانیت ما است که در معرض خطر است و نه، آن چنان که هاوکینز یا ماسک از آن می ترسند فرجام نژاد انسان.

 

برگرفته از: دموکراسی مردم نشریه حزب کمونیست هند(مارکسیست)

10/08/97
 


[2] - مجموعه دستورهایی که برای نظم معینی دنبال می شوند و برای حل مسائل ریاضی و برنامه ریزی کامپیوتری مورد استفاده قرار می گیرند- مترجم

[3] - کارت های حساب دائمی در هند - مترجم

[7] - عضو کاست نا برخوردار در هند- مترجم

[8] - Emanuel Derman and Paul Wilmott

[10] - سوگند پزشکان هنگام آغاز امر طبابت- مترجم

 

Comments System WIDGET PACK

Share

بازگشت به صفحه نخست

مطلب را به بالاترین بفرستید: Balatarin

 

نامه ها ومقالات خودرا به نشانی webmaster@rahman-hatefi.net  بقرستید

انتشار اخبار، مقالات و بیانیه ها در این صفحه الزاماً به معنای تایید آن‌ها نیست
 
    اشتراك در نویدنو

  

نشانی پست الکترونیک: