www.iiiWe.com » بیانیه‌ای برای جلوگیری از گسترش هوش مصنوعی

 اخبار   
 

 بیانیه‌ای برای جلوگیری از گسترش هوش مصنوعی

ایلان ماسک و بیش از ۱۰۰ کارشناس هوش مصنوعی (AI) در نامه‌ای، از سازمان ملل متحد خواستند مانع ساخت و گسترش تکنولوژی ربات‌های قاتل شود. نامه‌ی سرگشاده‌ای که توسط ماسک، مصطفی سلیمان (از مدیران ارشد گوگل)، و ۱۱۴ متخصص رباتیک و هوش مصنوعی امضا شد، از سازمان ملل متحد می‌خواهد با ممنوعیت توسعه‌ی همه‌ی جنگ‌افزارهای خودکار مهلک، از «انقلاب سوم جنگ جهانی» جلوگیری کند ...

بیانیه‌ای برای جلوگیری از گسترش هوش مصنوعی

ایلان ماسک و بیش از ۱۰۰ کارشناس هوش مصنوعی (AI) در نامه‌ای، از سازمان ملل متحد خواستند مانع ساخت و گسترش تکنولوژی ربات‌های قاتل شود. نامه‌ی سرگشاده‌ای که توسط ماسک، مصطفی سلیمان (از مدیران ارشد گوگل)، و ۱۱۴ متخصص رباتیک و هوش مصنوعی امضا شد، از سازمان ملل متحد می‌خواهد با ممنوعیت توسعه‌ی همه‌ی جنگ‌افزارهای خودکار مهلک، از «انقلاب سوم جنگ جهانی» جلوگیری کند.

به گزارش بیگ بنگ، این نامه، همزمان با بزرگترین کنفرانس جهانی هوش مصنوعی بنام IJCAI ۲۰۱۷، که در هفته جاری در استرالیا برگزار می شود، هشدار می دهد که در آینده نزدیک، دستگاه های خودکار قادر خواهند بود علاوه بر دشمنان مبارز خود، انسان های بی‌گناه را هم مورد حمله قرار دهند. به نوشتۀ این کنسرسیوم: « زمانی که این ربات‌ها تولید شدند، محققان، دامنه اختیارات بسیار گسترده‌ای را در درگیری‌های مسلحانه به آنها می دهند و درک آنها در زمان‌بندی سریع‌تر از انسان است. این ربات‌ها سلاح‌هایی هستند که حاکمان قدرت و تروریست‌ها از آنها بر ضد افراد بی‌گناه استفاده می‌کنند. در واقع، حاکمان قدرتمند جهان این سلاح‌ها را به گونه‌ای هک کرده‌اند که به شیوه‌ نامطلوب رفتار کنند.»

این اولین بار نیست که ماسک و طرفداران دیدگاه جهانی او متحد شده اند تا توجه جهانی را به سمت تهدیدی که سلاح های خودکار به بشریت دارد سوق دهند. ایلان ماسک، بنیانگذار شرکت اسپس ایکس و تسلا، حامی سازمان OpenAI نیز هست، این سازمان غیر انتفاعی به دنبال پیشرفت ِ تحقیقات علمی و اخلاقی است. علیرغم نگرانی های متخصصان هوش مصنوعی، تاخیرهای مداوم در ایجاد ممنوعیت ساخت سلاح های خودکار، موجب شد تا عده‌ای از پیامدهای این تکنولوژی، به خصوص با توجه به سرعت زیاد توسعه سیستم های هوش مصنوعی، واهمه داشته باشند.

در این نامه آمده است: « زمان زیادی برای عمل کردن باقی نمانده. زمانی که این درب باز شود، بستن آن دشوار است. باید امروز تصمیم بگیریم و ببینیم که چه آینده‌ای را می‌خواهیم.» “انقلاب سوم” که در آن ربات‌های قاتل، جانشین باروت و سلاح های هسته ای هستند دنیای کنونی را بهتر نکرده‌اند. با اینکه این نامه اولین موردی نیست که کارشناسان در مورد ربات‌های قاتل هشدار داده‌اند، اما اولین باری است که نمایندگان شرکت های هوش مصنوعی و رباتیک – از ۲۶ کشور جهان – موضع مشترکی در این مورد در پیش گرفته‌اند، محققانی همچون استیون هاوکینگ، نوام چامسکی و استیو وازنیاک، بنیانگذار اپل.

با کلیک بر روی تصویرها، مطالبی دیگر، مرتبط با موضوع در دسترس شما خواهد بود.
با کلیک بر روی تصویرها، مطالبی دیگر، مرتبط با موضوع در دسترس شما خواهد بود.‌

رایان گارپی، بنیانگذار فناوری رباتیک Clearpath، می گوید: «تعدادی از شرکت های برجسته و افرادی که این نامه را امضا کرده اند، از اعلام خطر ما حمایت می‌کنند که نشان می‌دهد این سناریوی فرضی نیست، بلکه موضوع بسیار واقعی و جدی است که نیاز به اقدام فوری دارد. نباید این واقعیت را نادیده بگیریم که، بر خلاف سایر حوزه‌های بالقوه هوش مصنوعی که هنوز در قلمرو علمی- تخیلی باقی مانده است، سیستم سلاح های مستقل در حال توسعه هستند.»

در حالی که کابوس سیستم های سلاح مستقل می تواند در آینده شبیه به T-۸۰۰ در فیلم ترمیناتور باشد، اما واقعیت این است که ماشین های کشتار مبتنی بر هوش مصنوعی، در حال حاضر فقط در حد یک ایده است. با این حال ابزاری با قابلیت خودکار یا نیمه-خودکار در سلاح هایی مانند اسلحه نگهبانی سامسونگ SGR-A۱، هواپیمای بدون سرنشین BAE Systems Taranis، و زیردریایی شکارچی دریا متعلق به دارپا، ساخته می شود. به عبارت دیگر، بذر تکنولوژیکی روبات های قاتل در زمین، دریا و هوا وجود دارد – و قوانین موثر برای تنظیم این ماشین های کشنده (و صنعتی که آنها را می‌سازد) هنوز نوشته و تصویب نشده است.

توبی والش، پژوهشگر هوش مصنوعی استرالیا، یکی از سازماندهندگان IJCAI ۲۰۱۷، می گوید: «هر فناوری می‌تواند به نحو صحیح یا غیرصحیح استفاده شود و هوش مصنوعی نیز از این قاعده مستثنی نیست. می‌توان از این تکنولوژی بهره گرفت تا از پس بسیاری از مشکلات روزافزون جامعه برآمد … و یا می توان در سلاح های خودکار برای صنعتی شدن جنگ استفاده کرد. امروز باید تصمیم بگیریم که کدام یک از این‌ راه ها را انتخاب کنیم.»

  منبع : وبگاه بیگ‌بنگ
  17:13   یکشنبه 19 شهریور 1396  
 نظرات