Live Chat Software by Ariaphone |
اخبار
مهر ۰۶ |
باتنتی که دستگاههای متصل به اینترنت اشیا را هدف گرفته
ارسال شده توسط روشن ۰۶ مهر ۱۳۹۷ ۰۶:۴۰ بعد از ظهر
|
محققان امنیتی به تازگی پیچیده ترین بات نتی را کشف کردهاند که دستگاههای متصل به اینترنت اشیا را مبتلا میکند. این بات نت میتواند هر دستوری را در دستگاه مذکور انجام دهد.
کارشناسان امنیتی پیچیده ترین بات نتی را کشف کرده اند که تصور می شود هدف اصلی آن گجت های متصل به اینترنت اشیا است.
شرکت آنتی ویروس Avast در گزارش جدید خبر از کشف یک رشته بدافزار تازه به نام Torii داده که با استفاده از روش های پیشرفته دستگاههای اینترنت اشیا را مبتلا می کند.
به گزارش ایتنا از مهر، محققانAvast در یک پست وبلاگی نوشته اند: این بات نت پس از نفوذ در دستگاه به طور مخفیانه و نامحسوس کار می کند. همچنین مانند بقیه بات نت ها عمل نمی کند؛ به طور مثال حملات DDoS (منع سرویس) را انجام نمی دهد، یا به تمام دستگاه های متصل به اینترنت حمله نمی کند و با استفاده از آنها پول مجازی استخراج نمی کند.
این بدافزار با استفاده از پروتکل دسترسی از راه دور Telnet دستگاه هایی را جستجو می کند که رمزگذاری آنها ضعیف است. Torii به محض شناسایی دستگاهی با اقدامات امنیتی ضعیف، سعی می کند اطلاعات شخصی کاربر را بدزدد. احتمال زیادی دارد که صاحبان این دستگاه ها هیچ اطلاعی از حمله نداشتند باشند.
Telnet در اصل یک ابزار دسترسی است که برای ورود به سرورهای راه دور به کار می رود اما به طورکلی ابزارهایی ایمن تر جایگزین آن شده اند.
محققان در ادامه پست وبلاگی نوشته اند: طی تحقیقات ما متوجه شدیم این بدافزار از دسامبر ۲۰۱۷ و یا قبل تر از آن فعال بوده است.
Torii تابه حال حملات DDoS انجام نداده یا از دستگاه ها برای استخراج پول مجازی استفاده نکرده است. اما به گفته محققان می تواند دستورات مختلفی را روی دستگاه های مبتلا اجرا کند.
این درحالی است که بسیاری از گجت های خانگی به یکدیگر متصل هستند و هنوز مشخص نیست بدافزار بتواند به دستگاه های دیگر منتقل شود یا خیر. به هرحال هنگامیکه Torii دستگاهی را مبتلا می کند، اطلاعات و ارتباطات سرور هکر را وارد آن می کند. به این ترتیب هکر می تواند هر دستوری را در دستگاه مبتلا اجرا کند.
محققان Avast در این باره نوشته اند: هرچند تحقیقات ما ادامه دارد اما واضح است که Torii یک نمونه از شیوه تکامل بدافزارهای اینترنت اشیا است و سطح پیچیدگی آن بسیار فراتر از نمونه هایی است که تاکنون دیده ایم.
ادامه مطلب » | |
مهر ۰۳ |
بدافزاری که امنیت لینوکس و ویندوز را به خطر میاندازد
ارسال شده توسط روشن ۰۳ مهر ۱۳۹۷ ۱۲:۰۹ بعد از ظهر
|
به گزارش ایتنا از ایسنا، از آنجا که این روزها اخبار زیادی مبنی بر آسیبپذیریهای امنیتی و نفوذ بدافزارهای خطرناک به رایانه کاربران و شرکتهای تجاری در جهان منتشر شده است، بنابراین پژوهشگران بسیاری درصدد کشف هرگونه بدافزار در نرمافزار، برنامه و اپلیکیشنهای مختلف هستند تا کاربران را از آسیبهای احتمالی حملات سایبری و بدافزاری مصون بدارند.
حالا بهتازگی محققان امنیتی به کاربران سیستمعاملهای ویندوز و لینوکس هشدار دادهاند که بدافزار جدیدی وارد عرصه رایانه و اینترنت شده است که قابلیتهای جدید و شگفتانگیز پیچیدهای دارد. این بدافزار جدید قادر است پس از نفوذ به رایانه شخص قربانی، به استخراج ارزهای دیجیتالی رمزنگاری شده و انتشار کرم و ویروسهای مخرب و آلوده رایانهای بپردازد و درنهایت اطلاعات شخصی، محرمانه و مالی قربانیان را به سرقت ببرد.
این بدافزار که Dubbed XBash نام دارد، به عقیده این پژوهشگران امنیتی به یک گروه هکری چینی وابسته است و بهمنظور انجام حملات سایبری گسترده و استخراج ارزهای مجازی رمزپایه فعالیتهای متعددی کردهاند.
به گفته پائولو آلتو، یکی از محققان امنیتی که این بدافزار جدید را کشف و نامگذاری کرد، XBash شباهت زیادی به بدافزارهای پیشین و خطرناکی نظیر واناکرای و نوت پتیا دارد، با این تفاوت که قابلیت استخراج و ماینینگ ارزهای دیجیتالی رمزنگاری شده هچون بیتکوین نیز به آن اضافه شده است.
حملات بدافزارها، باجافزارها و ویروسهای رایانهای که در سال گذشته ۲۰۱۷ در مقایسه با سالهای گذشته به بیشترین حد خود رسیده بود، حالا بر اساس تازهترین تحقیقات صورت گرفته، پیشبینی شده است که سال جاری میلادی حملات سایبری توسط بدافزارهای جدید رکورد خواهند زد و این روند در سالهای آتی همچنان صعودی خواهد بود.
بدافزارها، باجافزارها و حملات DDOS از جمله تهدیدهای امنیتی بودند که از سال ۲۰۱۶ کاربران فضای مجازی را در معرض خطر حملات سایبری قرار دادهاند و موجب لو رفتن اطلاعات شخصی و محرمانه آنها شده است.
همانطور که در اخبار گذشته اشاره شده است، سالانه شرکتها و سازمانهای دولتی و خصوصی بزرگی در سراسر جهان متحمل خسارات و آسیبهای جبران ناپذیری میشوند که از جمله مهمترین آنها میتوان به حمله سایبری به شرکت مالی اکوئیفاکس در آمریکا، سازمان بهداشت و سلامت در انگلستان، وزارتهای دفاع و امور خارجه بسیاری از کشورها، شرکت حسابرسی دیلویت (Deloitte) در آمریکا اشاره کرد.
بنابراین میتوان گفت خطر حملات سایبری در کمین تمامی افراد، کاربران و شرکتهای کوچک و بزرگ در جهان است و دیگر نمیتوان ادعا کرد که کسی از گزند و خطرات حملات سایبری در امان است. حمله سایبری توسط بدافزار واناکرای (WannaCry) به طور قطع یکی از مهلکترین حملاتی است که در طول سالهای اخیر صورت گرفته است.
حملاتی که بدافزار واناکرای در سال گذشته به کشورها، سازمانها و شرکتهای بسیاری کرد، خسارات جبران ناپذیر بسیاری را برای آنها برجای گذاشت. به تازگی نیز ویروس رایانهای و بدافزار "خرگوش بد" سرو صدای بسیاری به راه انداخته است و به شرکتها، بانکها و موسسات کوچک و بزرگی در کشورهای مختلف بخصوص در اروپا حمله کرده و اطلاعات محرمانه آنها را به سرقت برده است.
ادامه مطلب » | |
مهر ۰۳ |
کلاهبرداریهای تلفنی در آمریکا
ارسال شده توسط روشن ۰۳ مهر ۱۳۹۷ ۰۹:۴۴ قبل از ظهر
|
طبق تحقیقی جدید در سال آتی میلادی تقریبا نیمی از تماس های تلفنی با موبایل در آمریکا از سوی کلاهبرداران انجام می شود.
تماسهای رباتیک و تقلبی در سال های اخیر بسیار زیاد شده است. به طوری که در آمریکا تعداد کلاهبرداری با تماس تلفنی موبایل از ۳.۷ درصد در ۲۰۱۷ میلادی به ۲۹.۲ درصد در ۲۰۱۸ رسیده است.
به گزارش ایتنا از مهر، محققان تخمین می زنند در صورت ادامه این روند، در اوایل ۲۰۱۹ میلادی میزان تماس های کلاهبردارانه به ۴۴.۶ درصد برسد.
این آمار براساس پیش بینی های شرکت First Orion ( یک شرکت آمریکایی که فناوری caller ID را برای شناسایی تماس های کلاهبردارانه فراهم می کند) ارائه شده است.
شرکت مذکور هشدار می دهد این مشکل چنان فراگیر شده که افراد ترجیح می دهند به شماره های تلفن ناشناس پاسخی ندهند. چارلز مورگان مدیر ارشد اجرایی این شرکت می گوید:هر سال اپیدمی تماس های کلاهبردارانه وسیع تر می شود.
در اوایل سال جاری اسکات هامبوشن نائب رییس اجرایی این شرکت در کنگره حاضر شد و درباره افزایش تماس های رباتیک و شیوه های گمراه کردن مرجع تماس شهادت داد.
کلاهبرداران اکنون بسیار پیچیده تر عمل می کنند . به همین دلیل کاربران نمی توانند این تماس ها را مسدود کنند.
ادامه مطلب » | |
شهریور ۳۰ |
با دو روش ساده، احراز هویت دوعاملی را قویتر کنید
ارسال شده توسط روشن ۳۰ شهریور ۱۳۹۷ ۰۳:۵۱ بعد از ظهر
|
اخیراً مطلبی در مورد یک آیفون سرقتشده و اهمیت نوتیفیکیشن دوعاملی خواندم و همانجا بود که با خود گفتم: «چه عالی. تقریباً برای همه اکانتهایم احراز هویت دوعاملی گذاشتهام. از اکانتهای مربوط به امور بانکی گرفته تا گوگل. خدا کند من به پست چنین سارقانی نیافتم چون هیچ چیز نصیبشان نخواهد شد».
هربار که مجبور بودم روی دستگاه جدیدی لاگین کنم و یا سیگنالِ احراز هویت دو عاملیام را خاموش کنم، تنها کاری که میکردم این بود که گوشیام را بردارم و کد احراز هویتی که روی تصویر بالا میآید را بردارم (حتی اگر گوشیام در حالت قفل بود).
درست است؛ هم آیفون و هم اندروید میتوانند پیامهای متنی روی نمایشگر گوشیای که قفلشده است را نشان دهند (بدینترتیب همه میتوانند کد را بخوانند). در واقع مادامیکه بدانم کسی قصد سرقت گوشیام را ندارد با این مسئله مشکلی ندارم اما به هر حال باید بدانیم که اسمارتفونها طعمههای خوشمزه و وسوسهانگیزی برای کلاهبرداراناند؛ کسانی که به هر قیمتی شده میخواهند با کارهای غیرقانونی از اسمارت فونها پول درآورند.
پس این توصیه را از من حقیر بپذیرید: مطمئن شوید نوتیفیکیشنهای خودتان و کسانی که دوستشان دارید، اطلاعات مهم و محرمانه را آشکارا در اختیار دیگران نمایش نمیدهد.
نوتیفیکیشنهایی را که روی صفحه قفل گوشیهای آیفون پدیدار میشوند غیرفعال کنید
کاربران آیفون در تنظیمات نوتیفیکیشن دستشان بازتر است. اول از همه میتوانید پیشنمایشهای نوتیفیکیشن را به طور کلی تنظیم نمایید:
تنظیمات را باز کنید؛
به بخش نوتیفیکیشنها رفته؛
اگر میخواهید همه نوتیفیکیشنهای نمایشدادهشده روی صفحه قفل را ببندید، در بالای صفحه روی گزینه Show Previews بزنید؛
و سپس گزینه When Unlocked یا Never را بزنید.
در سیستمعامل iOS قدرت اختیار دارید؛ میتوانید میزان حریم خصوصی و راحتی را بنا بر میلتان تنظیم نمایید. اگر ترجیح میدهید روی نمایشگر قفل، نوتیفیکیشنها پدیدار شوند و تنها آن دسته از نوتیفیکیشنهایی که به نظرتان حاوی محتواهایی مهم، محرمانه و حساس هستند پنهان شود، میتوانید رویکرد دیگری اتخاذ کرده و این آپشن را برای هر اپ به طور جداگانه تنظیم کنید:
بار دیگر به بخش تنظیمات رفته؛
به بخش نوتیفیکیشن رفته؛
روی اپ مورد نظر زده (برای مثال پیامها)؛
به سمت آپشن پیش نمایشها اسکرول کرده و When Unlocked یا Never را انتخاب کنید.
خاموش کردن نوتیفیکیشنهای صفحه قفل اندرویدی
تنظیمات اندروید بسته به ورژن و دستگاه میتواند متغیر باشد که البته تعدادشان هم کم نیست. با این تفاسیر، نمیتوان راهکاری نهایی اعلام کرد بنابراین در ادامه تنها به چند عدد از آنها گریز خواهیم زد.
به تنظیمات بروید؛
به Apps & Notifications و سپس Notifications بروید؛
گزینهی On the lock screen را انتخاب کنید؛
یا Don’t show notifications را انتخاب نموده و یا Show notifications but hide sensitive content را بزنید.
بسیاری از نسخههای اندرویدی به شما اجازه نمیدهند نوتیفیکیشنهای روی صفحه قفل را برای هر اپ به طور جداگانه تنظیم کنید؛ با این حال، ورژن OS سامسونگ چنین امکانی را در اختیار شما قرار میدهد.
یادتان نرود از سیمکارت خود محافظت کنید
حذف نوتیفیکیشنها از روی صفحه قفل، شروع خوبیست اما هنوز خطر در کمین است. میدانید که این گوشی نیست که دارد پیامهای متنی شما را دریافت میکند، بلکه آن قطعه کوچک به نام سیمکارت است که همهی این کارها را انجام میدهد (حقیقتی که خیلیها یادشان میرود). خیلی راحت میشود یک سیمکارت را از گوشیای برداشت و در گوشی دیگری جا زد و تمامی پیامها و تماسهای آن خط را روی گوشی جدید دریافت کرد (مثل پیامهایی با کدهای احراز هویت دوعاملی).
خیلی راحت میتوانید از سرقت اطلاعاتتان جلوگیری کنید- تنها به سیمکارت خود درخواست پین کد دهید. در ادامه این کار روی گوشی آیفون امتحان کردهایم:
به تنظیمات بروید؛
بعد از کمی اسکرول، روی گزینه Phone بزنید؛
به بخش SIM PIN رفته؛
Switch SIM PIN را روشن کرده؛
به پین فعلی روید. اگر هنوز یک پین هم ندارید، از کد پیشفرض که خود اپراتور تنظیم کرده استفاده کنید (میتوانید آن را در کیت استارتر SIM پیدا کنید).
برای استفاده از کد سفارشیسازی به جای کد پیشفرض روی Change PIN زده؛
پین کنونیتان را وارد کرده؛
بعد از آنکه پین جدید را وارد کردید ان را باری دیگر (باری تأیید) نیز وارد نموده؛
برای اندروید (باز هم میگویم: شاید روی گوشی شما کمی متفاوت عمل کند):
به تنظیمات رفته و سپس Security & Location را بزنید؛
SIM card lock و Lock SIM card را انتخاب کنید؛
اگر مجبور بودید، پین سیم را وارد کنید. اگر هم از قبل کدی وارد نکردهاید، پینِ سیم پیشفرضتان را در اطلاعات و اسناد سیمکارت خود پیدا کنید؛
گزینه Change SIM PIN را انتخاب کنید؛
پین قدیمیتر را وارد کنید؛
پین جدید را وارد کرده (و برای تأیید یک بار دیگر وارد کنید).
حال هربار که گوشی شما ریستارت میشود و یا سیمکارتتان روی گوشی دیگر جاگذاری میگردد، باید حتماً کد پین وارد شود و در غیر این صورت خط تلفن شما شروع به کار نخواهد کرد.
ادامه مطلب » | |
شهریور ۳۰ |
فناوری یادگیری ماشین و 9 چالش پیش روی بشر
ارسال شده توسط روشن ۳۰ شهریور ۱۳۹۷ ۱۲:۲۲ قبل از ظهر
|
به طور حتم آینده از امروز بهتر خواهد بود؛ اما این روزها فناوری هوش مصنوعی (AI) سؤالات زیادی را در ذهن ایجاد میکند که خیلی از این سؤالات، اصول اخلاقی را نشانه رفتهاند. صرف نظر از پیشرفت تکنولوژی در آینده، تا همین جای کار، فناوری یادگیری ماشین تا چه حد ما را شگفتزده و غافلگیر کرده است؟ آیا میتوان ماشین را فریب داد؟ و اگر بشود به نظر شما فریب دادنش تا چه اندازه سخت خواهد بود؟ آیا همهی اینها نهایتاً به اسکاینت (نابودگر) و یا شورش ماشینها ختم نخواهد شد؟ بیایید نگاهی به ماجرا بیاندازیم.
هوش مصنوعی قوی و ضعیف
ابتدا باید بین دو مفهوم تفاوت قائل شویم: هوش مصنوعی قوی و هوش مصنوعی ضعیف. هوش مصنوعی قوی، ماشینی فرضی است که قادر به تفکر بوده و کاملاً از وجود و حضور خود آگاه است. این هوش مصنوعی نه تنها میتواند کارهای سخت را انجام دهد، بلکه همچنین چیزهایی جدید را نیز میآموزد.
به گزارش ایتنا از کسپرسکی آنلاین، هوش مصنوعی ضعیف را هماکنون داریم. آن را میتوان در کارکردهایی که به منظور حل مشکلات خاص طراحی شدهاند یافت: مانند شناسایی تصویر، رانندگی خودرو، بازی کردن گیم «گو» و غیره. هوش مصنوعی ضعیف چیزی است که ما بدان «یادگیری ماشین» میگوییم.
هنوز نمیدانیم آیا میشود هوش مصنوعی قوی را اختراع کرد یا خیر. بر اساس پژوهشهای یک متخصص، باید 45 سال دیگر صبر کرد تا شاهد چنین پدیدهای بود. این یعنی "روزی از این روزها".برای مثال، همچنین متخصصان میگویند قدرت همجوشی تا 40 سال دیگر تجاری خواهد شد- چیزی که 50 سال پیش گفته میشد.
اِشکال کار کجاست؟
هنوز کسی مطمئن نیست هوش مصنوعی قوی میتواند ساخته شود یا نه؛ اما مدتی است که هوش مصنوعی ضعیف را در بسیاری از حوزهها تجربه میکنیم. تعداد این حوزهها هر سال در حال افزایش است. یادگیری ماشین به ما این اجازه را میدهد تا از عهده انجام برخی کارهای اجرایی بدون برنامهریزی شفاف برآییم؛ این فناوری، خود از روی نمونهها یاد میگیرد.
ما به ماشینها میآموزیم که برخی مشکلات خاص و تعیینشده را حل کنند؛ بنابراین مدل ریاضی نهایی -چیزی که بدان الگوریتم "یادگیری" میگوییم- نمیتواند به طور ناگهانی به برده کردن و یا نجاتِ بشر تمایل پیدا کند. به بیانی دیگر، نباید از اسکاینت ناشی از هوش مصنوعی ضعیف بترسیم؛ اما بالاخره نمیشود اطمینان کامل هم بدان داشت. احتمالاً این گوشه و کنار چالشهایی نیز در کمیناند:
نیات شر
اگر به ارتشی از پهپادها بیاموزیم که با استفاده از یادگیری ماشین، ادمها را بکشند، آیا این انسانی و اخلاقی است؟
سال گذشته سر همین موضوع رسوایی به بار آمد. گوگل در حال ساخت نرمافزاری بود مخصوص مقاصد نظامی که Project Maven نام داشت و پهپادها را نیز شامل میشد. در آینده، این پروژه میتوانست به ساخت سامانههای تسلیحاتی مستقل (خودکار) کمک کند. در نتیجه، 12 نفر از کارکنان گوگل به نشان اعتراض این شرکت را ترک کرده و 4000 کارمند دیگر دادخواستی دادند مبنی بر اینکه گوگل قرارداد خود را با ارتش فسخ کند. بیش از 1000 دانشمند سرشناس حوزهی هوش مصنوعی، اخلاقیات و آیتی نیز نامهای سرگشاده به گوگل نوشتند و از این کمپانی خواستند تا این پروژه را رها کرده و از توافق بینالمللی بر سر منع تسلیحات مستقل حمایت کند.
تعصب برنامهنویس
حتی اگر توسعهدهندگان الگوریتم یادگیری ماشین نیت شری نداشته باشند، باز هم خیلی از آنها از خیر پول نمیگذرند. یعنی الگوریتمهایی که مینویسند قرار است برایشان راهی برای درآمدزایی باشد. حال این درآمدزایی میتواند هم به نفع بشر باشد و هم به ضرر. برخی از الگوریتمهای پزشکی این طور طراحی شدهاند که به جای دورههای درمانی کمهزینهتر، درمانهای گران را برای بیماران پیشنهاد میدهند.
برخی اوقات خودِ جامعه هم دوست ندارد یک الگوریتم به معیار اخلاق و انسانیت بدل شود. برای مثال، سرعت ترافیک و نرخ مرگ بر اثر تصادفات: میتوان به خودروهای خودگردان برنامه داد تا بیشتر از 15 مایل بر ساعت نرانند؛ این میتواند تصادفات منجر به مرگ را تا حد صفر کاهش دهد اما از طرفی این امر میتواند مزایای استفاده از خودرو را نفی کند.
پارامترهای سیستم همیشه هم مرتبط با مسائل اخلاقی نیستند
کامپیوترها به طور پیشفرض هیچ چیز از اخلاقیات نمیدانند. یک الگوریتم میتواند با هدف بالا بردن سطح تولید ناخالص ملی/سودمندی نیروی کار/امید به زندگی، بودجهای ملی جمع کند؛ اما بدون محدودیتهای اخلاقی که در مدل برنامهنویسیشده است، این امر میتواند منجر به حذف بودجهی مدارس، آسایشگاهها و محیطزیست شود چراکه آنها مستقیماً تولید ناخالص ملی را افزایش نمیدهند.
نسبی بودن مفهوم اخلاق
اخلاقیات به مرور زمان دستخوش تغییر میشود و برخی اوقات این تغییر خیلی سریع انجام میگیرد. برای مثال، عقایدِ افراد در مورد مسائلی چون حقوق LGBT یا ازدواجهایی با نژادهای مختلف/بین قبیلهای در طول یک نسل به طور قابل ملاحظهای تغییر کرده است. اصول اخلاقی همچنین میتواند بین گروههای یک کشور نیز متغیر باشد (فرقی ندارد کدام کشور). برای مثال در چین استفاده از قابلیت شناسایی چهره برای بازرسی عمومی در سطح گسترده تبدیل به عُرف و هنجار شده است. دیگر کشورها شاید این را بد بدانند؛ بنابراین اتخاذ چنین تصمیمی بنا به شرایط و هنجارهای هر کشور متغیر است.
موقعیت سیاسی نیز اهمیت بسیاری دارد. برای مثال جنگ تروریستی به طور چشمگیری -و با سرعت بسیار بالایی- برخی آرمانها و ارزشهای اخلاقی را در بسیاری از کشورها دچار تحول کرده است.
یادگیری ماشین انسانها را عوض میکند
سیستمهای یادگیری ماشین-تنها نمونهای از هوش مصنوعی که مستقیماً مردم را تحتالشعاع قرار میدهد- بر اساس امتیازدهیهای شما به فیلمها، فیلمهای جدید را پیشنهاد داده و سپس سلایق شما را با سلایق کاربران دیگر نیز مقایسه میکند. برخی سیستمها در این کار بسیار حرفهای شدهاند. سیستم پیشنهاد فیلم به مرور زمان طبع فیلم دیدنِ شما را عوض میکند و فهرست فیلمهای مورد علاقهتان را محدود و محدودتر میسازد. طوری میشود که دیگر بدون آنها حس میکنید نمیتوانید فیلم درستی را برای دیدن انتخاب کنید و مدام ترس دارید نکند فیلم بد و یا خارج از ژانر مورد علاقهتان را انتخاب کرده باشید. هوش مصنوعی به طور تدریجی با شما کاری میکند که دیگر قدرت انتخاب فیلم را از دست داده و بی اختیار منتظر بنشینید تا هر چه را هوش مصنوعی به شما پیشنهاد میکند تماشا نمایید.
همچنین جالب است بدانید که ما حتی نمی دانیم تا چه اندازه افسارمان دست این الگوریتمهاست. نمونهی فیلمیِ آن خیلی وحشتآور نیست؛ اما فقط یک لحظه به دخالت هوش مصنوعی در تبلیغات و اخبار فکر کنید.
همبستگیهای غلط
یک همبستگی غلط زمانی رخ میدهد که چیزها -کاملاً مستقل از همدیگر- رویهای یکجور از خود نشان دهند. این امر میتواند به انسان این توهم را بدهد که آنها تا حدی با هم همبستگی و ارتباط معنادار دارند. برای مثال آیا میدانستید مصرف مارگارین (کرهی گیاهی) در آمریکا تا حد زیادی با نرخ طلاق در ایالت مین همبستگی دارد؟
البته برخی -بنا بر تجارب شخصی و هوش انسانی- همواره فکر میکنند هر ارتباط مستقیمی بین این دو مسئله بعید و محال است. یک مدل ریاضی نمیتواند چنین دانشی داشته باشد- تنها کارش یادگیری و تعمیم دادههاست.
نمونهی بارز آن برنامهایست که بیماران را بنا بر درجهی نیازشان به کمک پزشکی تقسیمبندی کرد و در نهایت به این نتیجه رسید که بیمارانِ مبتلا به آسم که ذات الریه داشتند اوضاعشان به حادیِ بیماران ذاتالریه که آسم نداشتند نیست. این برنامه به دادهها نگاه میکرد و در نهایت نتیجه اش این بود که بیماران آسمی کمتر در خطر مرگ بودند و بنابراین نباید در اولویت قرارشان داد. در حقیقت دلیل پایین بودن نرخ مرگ بر اثر آسم این بود که این بیماران همیشه مراقبتهای فوری پزشکی دریافت میکردند (زیرا شرایطشان به حدی وخیم بود که ممکن بود هر آن بر اثر این بیماری جان خود را از دست دهند).
حلقههای بازخورد
بازخوردها حتی از همبستگیهای کاذب نیز بدتر هستند. یک حلقهی بازخورد جایی است که در آن، تصمیمهای یک الگوریتم بر واقعیت تأثیر میگذارد که در عوض الگوریتم را متقاعد میسازد نتیجهگیریاش درست است. برای مثال، یک برنامهی جلوگیری از جرم در کالیفرنیا پیشنهاد داد که (بر اساس نرخ جرم) پلیس باید افسران بیشتری به مناطق آفریقایی-آمریکایی اعزام کند (تعداد جرم و جنایتهای ثبت و ضبطشده). اما وجود نیروهای بسیار در منطقه باعث شد شهروندان تعداد دفعات بیشتری گزارش جرم دهند (و اینگونه افسران مجبور بودند مدام به منطقه اعزام شوند).
پایگاه داده مرجع "آلوده" یا "سمی"
پیامدهای یادگیریِ الگوریتم تا حد زیادی به پایگاه دادهی مرجع بستگی دارد که اساس یادگیری را شکل میدهد. با این حال، این دادهها ممکن است یا به طور تصادفی و یا تعمداً (که معمولاً در این مورد میگویند پایگاه اطلاعاتی مرجع سمی است) از سوی شخص بد و مخرب از آب دربیایند.
در ادامه نمونهای از مشکلات غیرعمد و تصادفی در بخش پایگاههای اطلاعاتی مرجع آوردهایم. اگر اطلاعاتی که برای بکارگیری یک الگوریتم -به عنوان نمونهی آموزشی- مورد استفاده قرار میگیرند از سوی شرکتی باشد که فعالیتهای نژادپرستانه انجام میدهد، این الگوریتم هم نژادپرستانه خواهد بود.
زمانی مایکروسافت به یک چتبات طریقهی چت با کاربران را در توییتر آموزش داد. و بعد کمتر از 24 ساعت مجبور شدند این پروژه را تمام کنند زیرا برخی کاربران به این ربات یاد داده بودند که مثلاً کتابِ نبرد من (نوشتهی هیتلر) را از بَر بخواند.
«تِی تنها در عرض 24 ساعت از "آدمها خیلی خوبند" به یک نازیِ تمامعیار تبدیل شد و من خیلی به آیندهی هوش مصنوعیخوشبین نیستم»
_ گری geraldmellor) @) 24 مارس سال 2016
حال بیایید نمونهای از یک داده مسموم را در یادگیری ماشین مورد بررسی قرار دهیم. مدل ریاضیِ یک لابراتوارِ تحلیل ویروس کامپیوتری به طور متوسط روزانه 1 میلیون فایل را پردازش میکند؛ این کار هم میتواند خوب باشد و هم آسیبرسان.
یک هکر میتواند درست مشابه با کارکرد فایلهای صحیح، به تولید فایلهای مخرب ادامه دهد و آنها را به لابراتوار بفرستد. این عمل به تدریج مرز بین فایلهای مخرب و فایلهای خوب را از بین میبرد و کارایی مدل را پایین میآورد؛ شاید هم نهایتاً مثبت کاذب را مورد هدف خویش قرار دهد. از همین روست که لابراتوار کسپرسکی دارای مدل امنیتی چندلایه است و هیچگاه تماماً به یادگیری ماشین تکیه نمیکند. متخصصین آنتیویروس همیشه عملکرد ماشین را تحت نظارت قرار میدهند.
فریب
حتی یک مدل ریاضی که عملکرد خوبی دارد -همانی که تکیهاش بر دادههای خوب است- نیز باز میتواند فریب بخورد؛ تنها کافی است لِمَش را بداند. برای مثال، گروهی از محققین دریافتند چطور یک الگوریتم شناسایی چهره را با استفاده از عینکهای بخصوص -که کمترین میزان مداخله را در تصویر ایجاد میکنند- گول بزنند و نهایتاً کل نتیجه را تغییر دهند.
علاوه بر این، نیازی نیست برای کاهش مدل ریاضیِ یادگیری ماشین، این تغییرات بسیار فاحش و قابلملاحظه باشند- تغییرات جزئی که چشم انسان آنها را تشخیص نمیدهد کافی خواهد بود.
مادامیکه بشر از بسیاری از الگوریتمها هوشمندتر باشد، انسانها قادر خواهند بود به آنها کلک بزنند. فناوری یادگیری ماشینی را در آینده متصور شوید که چمدانی را در فروشگاه با اشعهی ایکس بازرسی میکند و به دنبال اسلحه است؛ یک تروریست حرفهای به سادگی خواهد توانست جسمی با قد و قوارهای مشابه را کنار اسلحه بگذارد و محموله را قایم کند.
چه کسی تقصیرکار است؟ و چاره چیست؟
در سال 2016، "گروه کار کلان داده" متعلق به ریاست جمهوری اوباما گزارشی منتشر کرد و در مورد "احتمال رمزگذاریِ تفاوتها در تصمیمهای اتوماتیک" هشدار داد. این گزارش همچنین حاوی درخواستی بود برای ساخت الگوریتمهایی که دنبال کردن چنین اصولی از اساس در طراحیشان نهادینه شده است.
البته گفتن این حرف آسانتر از عمل کردن به آن است.
اول از همه اینکه آزمایش و اصلاح مدل ریاضی یادگیری ماشین کار بسیار سختی است. ما برنامههای عادی را قدم به قدم ارزیابی میکنیم و میدانیم چطور آنها را آزمایش کنیم؛ اما وقتی پای یادگیری ماشین وسط است، همهچیز به سایز نمونهی یادگیری بستگی دارد.
دوم اینکه بهسختی میتوان تصمیمات الگوریتمهای یادگیری ماشین را درک نموده و توضیح داد. یک شبکهی عصبی، عاملهای مشترک بسیاری را در خود مرتب میکند تا نهایتاً به یک پاسخ درست برسد؛ اما چگونه؟ چطور میشود این جواب را تغییر داد؟
هیچ کس را نمیتوان سرزنش کرد؛ این ما هستیم که باید قوانین و قواعد اخلاقی جدیدی برای علم رباتیک تعریف کنیم. در ماه می 2018، کشور آلمان اولین گامهای خود را در این راستا برداشت و برای خودروهای خودگردان قوانین اخلاقی جدیدی وضع کرد.
بدیهی است که هر چه پیش میرویم، بیشتر و بیشتر به یادگیری ماشین وابسته میشویم، تنها به این دلیل که این فرآیند کارها را خیلی بهتر از برخی از ما انسانها مدیریت میکند. بنابراین، باید این نواقص و مشکلات را همیشه مد نظر داشت و تمامی احتمالات را در مرحلهی ساخت در نظر گرفت. همچنین میبایست به یاد داشت اگر روند کارکرد الگوریتمی در آستانه انحراف است، آن را با دقت تمام مورد بررسی و نظارت قرار داد.
ادامه مطلب » | |