Live Chat Software by Ariaphone
اخبار
مهر
۰۶
بات‌نتی که دستگاه‌های متصل به اینترنت اشیا را هدف گرفته
ارسال شده توسط روشن ۰۶ مهر ۱۳۹۷ ۰۶:۴۰ بعد از ظهر
محققان امنیتی به تازگی پیچیده ترین بات نتی را کشف کرده‌اند که دستگاه‌های متصل به اینترنت اشیا را مبتلا می‌کند. این بات نت می‌تواند هر دستوری را در دستگاه مذکور انجام دهد. کارشناسان امنیتی پیچیده ترین بات نتی را کشف کرده اند که تصور می شود هدف اصلی آن گجت های متصل به اینترنت اشیا است. شرکت آنتی ویروس Avast در گزارش جدید خبر از کشف یک رشته بدافزار تازه به نام Torii داده که با استفاده از روش های پیشرفته دستگاه‌های اینترنت اشیا را مبتلا می کند. به گزارش ایتنا از مهر، محققانAvast در یک پست وبلاگی نوشته اند: این بات نت پس از نفوذ در دستگاه به طور مخفیانه و نامحسوس کار می کند. همچنین مانند بقیه بات نت ها عمل نمی کند؛ به طور مثال حملات DDoS (منع سرویس) را انجام نمی دهد، یا به تمام دستگاه های متصل به اینترنت حمله نمی کند و با استفاده از آنها پول مجازی استخراج نمی کند.  این بدافزار با استفاده از پروتکل دسترسی از راه دور Telnet دستگاه هایی را جستجو می کند که رمزگذاری آنها ضعیف است. Torii به محض شناسایی دستگاهی با اقدامات امنیتی ضعیف، سعی می کند اطلاعات شخصی کاربر را بدزدد. احتمال زیادی دارد که صاحبان این دستگاه ها هیچ اطلاعی از حمله نداشتند باشند. Telnet در اصل یک ابزار دسترسی است که برای ورود به سرورهای راه دور به کار می رود اما به طورکلی ابزارهایی ایمن تر جایگزین آن شده اند. محققان در ادامه پست وبلاگی نوشته اند: طی تحقیقات ما متوجه شدیم این بدافزار از دسامبر ۲۰۱۷ و یا قبل تر از آن فعال بوده است. Torii تابه حال حملات DDoS انجام نداده یا از دستگاه ها برای استخراج پول مجازی استفاده نکرده است. اما به گفته محققان می تواند  دستورات مختلفی را روی دستگاه های مبتلا اجرا کند. این درحالی است که بسیاری از گجت های خانگی به یکدیگر متصل هستند و هنوز مشخص نیست بدافزار بتواند به دستگاه های دیگر منتقل شود یا خیر. به هرحال هنگامیکه Torii دستگاهی را مبتلا می کند، اطلاعات و ارتباطات سرور هکر را وارد آن می کند. به این ترتیب هکر می تواند  هر دستوری را  در دستگاه مبتلا اجرا کند. محققان Avast در این باره نوشته اند: هرچند تحقیقات ما ادامه دارد اما واضح است که Torii یک نمونه از شیوه تکامل بدافزارهای اینترنت اشیا است و سطح پیچیدگی آن بسیار فراتر از نمونه هایی است که تاکنون دیده ایم.
ادامه مطلب »



مهر
۰۳
بدافزاری که امنیت لینوکس و ویندوز را به خطر می‌اندازد
ارسال شده توسط روشن ۰۳ مهر ۱۳۹۷ ۱۲:۰۹ بعد از ظهر
به گزارش ایتنا از ایسنا، از آنجا که این روزها اخبار زیادی مبنی بر آسیب‌پذیری‌های امنیتی و نفوذ بدافزارهای خطرناک به رایانه کاربران و شرکت‌های تجاری در جهان منتشر شده است، بنابراین پژوهشگران بسیاری درصدد کشف هرگونه بدافزار در نرم‌افزار، برنامه و اپلیکیشن‌های مختلف هستند تا کاربران را از آسیب‌های احتمالی حملات سایبری و بدافزاری مصون بدارند. حالا به‌تازگی محققان امنیتی به کاربران سیستم‌عامل‌های ویندوز و لینوکس هشدار داده‌اند که بدافزار جدیدی وارد عرصه رایانه و اینترنت شده است که قابلیت‌های جدید و شگفت‌انگیز پیچیده‌ای دارد. این بدافزار جدید قادر است پس از نفوذ به رایانه شخص قربانی، به استخراج ارزهای دیجیتالی رمزنگاری شده و انتشار کرم و ویروس‌های مخرب و آلوده رایانه‌ای بپردازد و درنهایت اطلاعات شخصی، محرمانه و مالی قربانیان را به سرقت ببرد. این بدافزار که Dubbed XBash نام دارد، به عقیده این پژوهشگران امنیتی به یک گروه هکری چینی وابسته است و به‌منظور انجام حملات سایبری گسترده و استخراج ارزهای مجازی رمزپایه فعالیت‌های متعددی کرده‌اند. به گفته پائولو آلتو، یکی از محققان امنیتی که این بدافزار جدید را کشف و نام‌گذاری کرد، XBash شباهت زیادی به بدافزارهای پیشین و خطرناکی نظیر واناکرای و نوت پتیا دارد، با این تفاوت که قابلیت استخراج و ماینینگ ارزهای دیجیتالی رمزنگاری شده هچون بیت‌کوین نیز به آن اضافه شده است. حملات بدافزارها، باج‌افزارها و ویروس‌های رایانه‌ای که در سال گذشته ۲۰۱۷ در مقایسه با سال‌های گذشته به بیش‌ترین حد خود رسیده بود، حالا بر اساس تازه‌ترین تحقیقات صورت گرفته، پیش‌بینی شده است که سال جاری میلادی حملات سایبری توسط بدافزارهای جدید رکورد خواهند زد و این روند در سال‌های آتی همچنان صعودی خواهد بود. بدافزارها، باج‌افزارها و حملات DDOS از جمله تهدیدهای امنیتی بودند که از سال ۲۰۱۶ کاربران فضای مجازی را در معرض خطر حملات سایبری قرار داده‌اند و موجب لو رفتن اطلاعات شخصی و محرمانه آن‌ها شده است. همانطور که در اخبار گذشته اشاره شده است، سالانه شرکت‌ها و سازمان‌های دولتی و خصوصی بزرگی در سراسر جهان متحمل خسارات و آسیب‌های جبران ناپذیری می‌شوند که از جمله مهم‌ترین آن‌ها می‌توان به حمله سایبری به شرکت مالی اکوئیفاکس در آمریکا، سازمان بهداشت و سلامت در انگلستان، وزارت‌های دفاع و امور خارجه بسیاری از کشورها، شرکت حسابرسی دیلویت (Deloitte) در آمریکا اشاره کرد. بنابراین می‌توان گفت خطر حملات سایبری در کمین تمامی افراد، کاربران و شرکت‌های کوچک و بزرگ در جهان است و دیگر نمی‌توان ادعا کرد که کسی از گزند و خطرات حملات سایبری در امان است. حمله سایبری توسط بدافزار واناکرای (WannaCry) به طور قطع یکی از مهلک‌ترین حملاتی است که در طول سال‌های اخیر صورت گرفته است. حملاتی که بدافزار واناکرای در سال گذشته به کشورها، سازمان‌ها و شرکت‌های بسیاری کرد، خسارات جبران ناپذیر بسیاری را برای آن‌ها برجای گذاشت. به تازگی نیز ویروس رایانه‌ای و بدافزار "خرگوش بد" سرو صدای بسیاری به راه انداخته است و به شرکت‌ها، بانک‌ها و موسسات کوچک و بزرگی در کشورهای مختلف بخصوص در اروپا حمله کرده و اطلاعات محرمانه آنها را به سرقت برده است.
ادامه مطلب »



مهر
۰۳
کلاهبرداری‌های تلفنی در آمریکا
ارسال شده توسط روشن ۰۳ مهر ۱۳۹۷ ۰۹:۴۴ قبل از ظهر
طبق تحقیقی جدید در سال آتی میلادی تقریبا نیمی از تماس های تلفنی با موبایل در آمریکا از سوی کلاهبرداران انجام می شود. تماس‌های رباتیک و تقلبی در سال های اخیر بسیار زیاد شده است. به طوری که در آمریکا تعداد کلاهبرداری با تماس تلفنی موبایل از ۳.۷ درصد در ۲۰۱۷ میلادی به ۲۹.۲ درصد در ۲۰۱۸ رسیده است.  به گزارش ایتنا از مهر، محققان تخمین می زنند در صورت ادامه این روند، در اوایل ۲۰۱۹ میلادی میزان تماس های کلاهبردارانه به ۴۴.۶ درصد برسد. این آمار براساس پیش بینی های شرکت First Orion ( یک شرکت آمریکایی که فناوری caller ID را برای شناسایی تماس های کلاهبردارانه فراهم می کند) ارائه شده است. شرکت مذکور هشدار می دهد این مشکل چنان فراگیر شده که افراد ترجیح می دهند به شماره های تلفن ناشناس پاسخی ندهند. چارلز مورگان مدیر ارشد اجرایی این شرکت می گوید:هر سال اپیدمی تماس های کلاهبردارانه وسیع تر می شود.  در اوایل سال جاری اسکات هامبوشن  نائب رییس اجرایی این شرکت  در کنگره حاضر شد و درباره افزایش تماس های رباتیک  و شیوه های گمراه کردن  مرجع تماس شهادت داد. کلاهبرداران اکنون بسیار پیچیده تر عمل می کنند . به همین دلیل کاربران نمی توانند این تماس ها را مسدود کنند.
ادامه مطلب »



شهریور
۳۰
با دو روش ساده، احراز هویت دوعاملی را قوی‌تر کنید
ارسال شده توسط روشن ۳۰ شهریور ۱۳۹۷ ۰۳:۵۱ بعد از ظهر
اخیراً مطلبی در مورد یک آیفون سرقت‌شده و اهمیت نوتیفیکیشن دوعاملی خواندم و همانجا بود که با خود گفتم: «چه عالی. تقریباً برای همه‌ اکانت‌هایم احراز هویت دوعاملی گذاشته‌ام. از اکانت‌های مربوط به امور بانکی گرفته تا گوگل. خدا کند من به پست چنین سارقانی نیافتم چون هیچ چیز نصیبشان نخواهد شد». هربار که مجبور بودم روی دستگاه جدیدی لاگین کنم و یا سیگنالِ احراز هویت دو عاملی‌ام را خاموش کنم، تنها کاری که می‌کردم این بود که گوشی‌ام را بردارم و کد احراز هویتی که روی تصویر بالا می‌آید را بردارم (حتی اگر گوشی‌ام در حالت قفل بود). درست است؛ هم آیفون و هم اندروید می‌توانند پیام‌های متنی روی نمایشگر گوشی‌ای که قفل‌شده است را نشان دهند (بدین‌ترتیب همه می‌توانند کد را بخوانند). در واقع مادامیکه بدانم کسی قصد سرقت گوشی‌ام را ندارد با این مسئله مشکلی ندارم اما به هر حال باید بدانیم که اسمارت‌فون‌ها طعمه‌های خوشمزه و وسوسه‌انگیزی برای کلاهبرداران‌اند؛ کسانی که به هر قیمتی شده می‌خواهند با کارهای غیرقانونی از اسمارت فون‌ها پول درآورند.  پس این توصیه را از من حقیر بپذیرید: مطمئن شوید نوتیفیکیشن‌های خودتان و کسانی که دوستشان دارید، اطلاعات مهم و محرمانه را آشکارا در اختیار دیگران نمایش نمی‌دهد. نوتیفیکیشن‌هایی را که روی صفحه‌ قفل‌ گوشی‌های آیفون پدیدار می‌شوند غیرفعال کنید کاربران آیفون در تنظیمات نوتیفیکیشن دستشان بازتر است. اول از همه می‌توانید پیش‌نمایش‌های نوتیفیکیشن را به طور کلی تنظیم نمایید: تنظیمات را باز کنید؛ به بخش نوتیفیکیشن‌ها رفته؛ اگر می‌خواهید همه‌ نوتیفیکیشن‌های نمایش‌داده‌شده روی صفحه‌ قفل را ببندید، در بالای صفحه روی گزینه‌  Show Previews بزنید؛ و سپس گزینه‌ When Unlocked یا Never را بزنید. در سیستم‌عامل iOS قدرت اختیار دارید؛ می‌توانید میزان حریم خصوصی و راحتی را بنا بر میل‌تان تنظیم نمایید. اگر ترجیح می‌دهید روی نمایشگر قفل، نوتیفیکیشن‌ها پدیدار شوند و تنها آن دسته از نوتیفیکیشن‌هایی که به نظرتان حاوی محتواهایی مهم، محرمانه و حساس هستند پنهان شود، می‌توانید رویکرد دیگری اتخاذ کرده و این آپشن را برای هر اپ به طور جداگانه تنظیم کنید: بار دیگر به بخش تنظیمات رفته؛ به بخش نوتیفیکیشن رفته؛ روی اپ مورد نظر زده (برای مثال پیام‌ها)؛ به سمت آپشن پیش نمایش‌ها اسکرول کرده و When Unlocked یا Never را انتخاب کنید. خاموش کردن نوتیفیکیشن‌های صفحه‌ قفل اندرویدی تنظیمات اندروید بسته به ورژن و دستگاه می‌تواند متغیر باشد که البته تعدادشان هم کم نیست. با این تفاسیر، نمی‌توان راهکاری نهایی اعلام کرد بنابراین در ادامه تنها به چند عدد از آن‌ها گریز خواهیم زد. به تنظیمات بروید؛ به Apps & Notifications و سپس  Notifications بروید؛  گزینه‌ی On the lock screen را انتخاب کنید؛ یا Don’t show notifications را انتخاب نموده و یا Show notifications but hide sensitive content را بزنید. بسیاری از نسخه‌های اندرویدی به شما اجازه نمی‌دهند نوتیفیکیشن‌های روی صفحه‌ قفل را برای هر اپ به طور جداگانه تنظیم کنید؛ با این حال، ورژن OS سامسونگ چنین امکانی را در اختیار شما قرار می‌دهد. یادتان نرود از سیم‌کارت خود محافظت کنید حذف نوتیفیکیشن‌ها از روی صفحه‌ قفل، شروع خوبیست اما هنوز خطر در کمین است. می‌دانید که این گوشی نیست که دارد پیام‌های متنی شما را دریافت می‌کند، بلکه آن قطعه‌ کوچک به نام سیم‌کارت است که همه‌ی این کارها را انجام می‌دهد (حقیقتی که خیلی‌ها یادشان می‌رود). خیلی راحت می‌شود یک سیم‌کارت را از گوشی‌ای برداشت و در گوشی دیگری جا زد و تمامی پیام‌ها و تماس‌های آن خط را روی گوشی جدید دریافت کرد (مثل پیام‌هایی با کدهای احراز هویت دوعاملی). خیلی راحت می‌توانید از سرقت اطلاعات‌تان جلوگیری کنید- تنها به سیم‌کارت خود درخواست پین کد دهید. در ادامه این کار روی گوشی آیفون امتحان کرده‌ایم: به تنظیمات بروید؛ بعد از کمی اسکرول، روی گزینه‌ Phone بزنید؛ به بخش SIM PIN رفته؛ Switch SIM PIN را روشن کرده؛ به پین فعلی روید. اگر هنوز یک پین هم ندارید، از کد پیش‌فرض که خود اپراتور تنظیم کرده استفاده کنید (می‌توانید آن را در کیت استارتر SIM پیدا کنید). برای استفاده از کد سفارشی‌سازی به جای کد پیش‌فرض روی Change PIN زده؛ پین کنونی‌تان را وارد کرده؛ بعد از آنکه پین جدید را وارد کردید ان را باری دیگر (باری تأیید) نیز وارد نموده؛ برای اندروید (باز هم می‌گویم: شاید روی گوشی شما کمی متفاوت عمل کند): به تنظیمات رفته و سپس  Security & Location را بزنید؛ SIM card lock و Lock SIM card را انتخاب کنید؛ اگر مجبور بودید، پین سیم را وارد کنید. اگر هم از قبل کدی وارد نکرده‌اید، پینِ سیم پیش‌فرض‌تان را در اطلاعات و اسناد سیم‌کارت خود پیدا کنید؛ گزینه‌ Change SIM PIN را انتخاب کنید؛ پین قدیمی‌تر را وارد کنید؛ پین جدید را وارد کرده (و برای تأیید یک بار دیگر وارد کنید). حال هربار که گوشی شما ریستارت می‌شود و یا سیم‌کارت‌تان روی گوشی دیگر جاگذاری می‌گردد، باید حتماً کد پین وارد شود و در غیر این صورت خط تلفن شما شروع به کار نخواهد کرد.  
ادامه مطلب »



شهریور
۳۰
فناوری یادگیری ماشین و 9 چالش پیش روی بشر
ارسال شده توسط روشن ۳۰ شهریور ۱۳۹۷ ۱۲:۲۲ قبل از ظهر
به طور حتم آینده از امروز بهتر خواهد بود؛ اما این روزها فناوری هوش مصنوعی (AI) سؤالات زیادی را در ذهن ایجاد می‌کند که خیلی‌‌ از این سؤالات، اصول اخلاقی را نشانه رفته‌اند. صرف نظر از پیشرفت تکنولوژی در آینده، تا همین جای کار، فناوری یادگیری ماشین تا چه حد ما را شگفت‌زده و غافلگیر کرده است؟ آیا می‌توان ماشین را فریب داد؟ و اگر بشود به نظر شما فریب دادنش تا چه اندازه سخت خواهد بود؟ آیا همه‌ی اینها نهایتاً به اسکای‌نت (نابودگر) و یا شورش ماشین‌ها ختم نخواهد شد؟ بیایید نگاهی به ماجرا بیاندازیم. هوش مصنوعی قوی و ضعیف ابتدا باید بین دو مفهوم تفاوت قائل شویم: هوش مصنوعی قوی و هوش مصنوعی ضعیف. هوش مصنوعی قوی، ماشینی فرضی است که قادر به تفکر بوده و کاملاً از وجود و حضور خود آگاه است. این هوش مصنوعی نه تنها می‌تواند کارهای سخت را انجام دهد، بلکه همچنین چیزهایی جدید را نیز می‌آموزد. به گزارش ایتنا از کسپرسکی آنلاین، هوش مصنوعی ضعیف را هم‌اکنون داریم. آن را می‌توان در کارکردهایی که به منظور حل مشکلات خاص طراحی شده‌اند یافت: مانند شناسایی تصویر، رانندگی خودرو، بازی کردن گیم «گو» و غیره. هوش مصنوعی ضعیف چیزی است که ما بدان «یادگیری ماشین» می‌گوییم. هنوز نمی‌دانیم آیا می‌شود هوش مصنوعی قوی را اختراع کرد یا خیر. بر اساس پژوهش‌های یک متخصص، باید 45 سال دیگر صبر کرد تا شاهد چنین پدیده‌ای بود. این یعنی "روزی از این روزها".برای مثال، همچنین متخصصان می‌گویند قدرت همجوشی تا 40 سال دیگر تجاری خواهد شد- چیزی که 50 سال پیش گفته می‌شد. اِشکال کار کجاست؟ هنوز کسی مطمئن نیست هوش مصنوعی قوی می‌تواند ساخته شود یا نه؛ اما مدتی است که هوش مصنوعی ضعیف را در بسیاری از حوزه‌ها تجربه می‌کنیم. تعداد این حوزه‌ها هر سال در حال افزایش است. یادگیری ماشین به ما این اجازه را می‌دهد تا از عهده‌ انجام برخی کارهای اجرایی بدون برنامه‌ریزی شفاف برآییم؛ این فناوری، خود از روی نمونه‌ها یاد می‌گیرد. ما به ماشین‌ها می‌آموزیم که برخی مشکلات خاص و تعیین‌شده را حل کنند؛ بنابراین مدل ریاضی نهایی -چیزی که بدان الگوریتم "یادگیری" می‌گوییم- نمی‌تواند به طور ناگهانی به برده کردن و یا نجاتِ بشر تمایل پیدا کند. به بیانی دیگر، نباید از اسکای‌نت‌ ناشی از هوش مصنوعی ضعیف بترسیم؛ اما بالاخره نمی‌شود اطمینان کامل هم بدان داشت. احتمالاً این گوشه و کنار چالش‌هایی نیز در کمین‌‌اند: نیات شر اگر به ارتشی از پهپادها بیاموزیم که با استفاده از یادگیری ماشین، ادم‌ها را بکشند، آیا این انسانی و اخلاقی است؟ سال گذشته سر همین موضوع رسوایی به بار آمد. گوگل در حال ساخت نرم‌افزاری بود مخصوص مقاصد نظامی که Project Maven نام داشت و پهپادها را نیز شامل می‌شد. در آینده، این پروژه می‌توانست به ساخت سامانه‌های تسلیحاتی مستقل (خودکار) کمک کند. در نتیجه، 12 نفر از کارکنان گوگل به نشان اعتراض این شرکت را ترک کرده و 4000 کارمند دیگر دادخواستی دادند مبنی بر اینکه گوگل قرارداد خود را با ارتش فسخ کند. بیش از 1000 دانشمند سرشناس حوزه‌ی هوش مصنوعی، اخلاقیات و آی‌تی نیز نامه‌‌ای سرگشاده به گوگل نوشتند و از این کمپانی خواستند تا این پروژه را رها کرده و از توافق بین‌المللی بر سر منع تسلیحات مستقل حمایت کند. تعصب برنامه‌نویس حتی اگر توسعه‌دهندگان الگوریتم یادگیری ماشین نیت شری نداشته باشند، باز هم خیلی از آن‌ها از خیر پول نمی‌گذرند. یعنی الگوریتم‌هایی که می‌نویسند قرار است برایشان راهی برای درآمدزایی باشد. حال این درآمدزایی می‌تواند هم به نفع بشر باشد و هم به ضرر. برخی از الگوریتم‌های پزشکی این طور طراحی شده‌اند که به جای دوره‌های درمانی کم‌هزینه‌تر، درمان‌های گران را برای بیماران پیشنهاد می‌دهند. برخی اوقات خودِ جامعه هم دوست ندارد یک الگوریتم به معیار اخلاق و انسانیت بدل شود. برای مثال، سرعت ترافیک و نرخ مرگ بر اثر تصادفات: می‌توان به خودروهای خودگردان برنامه داد تا بیشتر از 15 مایل بر ساعت نرانند؛ این می‌تواند تصادفات منجر به مرگ را تا حد صفر کاهش دهد اما از طرفی این امر می‌تواند مزایای استفاده از خودرو را نفی کند. پارامترهای سیستم همیشه هم مرتبط با مسائل اخلاقی نیستند کامپیوترها به طور پیش‌فرض هیچ چیز از اخلاقیات نمی‌دانند. یک الگوریتم می‌تواند با هدف بالا بردن سطح تولید ناخالص ملی/سودمندی نیروی کار/امید به زندگی، بودجه‌ای ملی جمع کند؛ اما بدون محدودیت‌های اخلاقی که در مدل برنامه‌نویسی‌شده است، این امر می‌تواند منجر به حذف بودجه‌ی مدارس، آسایشگاه‌ها و محیط‌زیست شود چراکه آن‌ها مستقیماً تولید ناخالص ملی را افزایش نمی‌دهند. نسبی بودن مفهوم اخلاق اخلاقیات به مرور زمان دستخوش تغییر می‌شود و برخی اوقات این تغییر خیلی سریع انجام می‌گیرد. برای مثال، عقایدِ افراد در مورد مسائلی چون حقوق LGBT یا ازدواج‌هایی با نژادهای مختلف/بین قبیله‌ای در طول یک نسل به طور قابل ملاحظه‌ای تغییر کرده است. اصول اخلاقی همچنین می‌تواند بین گروه‌های یک کشور نیز متغیر باشد (فرقی ندارد کدام کشور). برای مثال در چین استفاده از قابلیت شناسایی چهره برای بازرسی عمومی در سطح گسترده تبدیل به عُرف و هنجار شده است. دیگر کشورها شاید این را بد بدانند؛ بنابراین اتخاذ چنین تصمیمی بنا به شرایط و هنجارهای هر کشور متغیر است.   موقعیت سیاسی نیز اهمیت بسیاری دارد. برای مثال جنگ تروریستی به طور چشمگیری -و با سرعت بسیار بالایی- برخی آرمان‌ها و ارزش‌های اخلاقی را در بسیاری از کشورها دچار تحول کرده است. یادگیری ماشین انسان‌ها را عوض می‌کند سیستم‌های یادگیری ماشین-تنها نمونه‌ای از هوش مصنوعی که مستقیماً مردم را تحت‌الشعاع قرار می‌دهد- بر اساس امتیازدهی‌های شما به فیلم‌ها، فیلم‌های جدید را پیشنهاد داده و سپس سلایق شما را با سلایق کاربران دیگر نیز مقایسه می‌کند. برخی سیستم‌ها در این کار بسیار حرفه‌ای شده‌اند. سیستم پیشنهاد فیلم به مرور زمان طبع فیلم دیدنِ شما را عوض می‌کند و فهرست فیلم‌های مورد علاقه‌تان را محدود و محدودتر می‌سازد. طوری می‌شود که دیگر بدون آن‌ها حس می‌کنید نمی‌توانید فیلم درستی را برای دیدن انتخاب کنید و مدام ترس دارید نکند فیلم بد و یا خارج از ژانر مورد علاقه‌تان را انتخاب کرده باشید. هوش مصنوعی به طور تدریجی با شما کاری می‌کند که دیگر قدرت انتخاب فیلم را از دست داده و بی اختیار منتظر بنشینید تا هر چه را هوش مصنوعی به شما پیشنهاد می‌کند تماشا نمایید. همچنین جالب است بدانید که ما حتی نمی دانیم تا چه اندازه افسارمان دست این الگوریتم‌هاست. نمونه‌ی فیلمیِ آن خیلی وحشت‌آور نیست؛ اما فقط یک لحظه به دخالت هوش مصنوعی در تبلیغات و اخبار فکر کنید. همبستگی‌های غلط یک همبستگی غلط زمانی رخ می‌دهد که چیزها -کاملاً مستقل از همدیگر- رویه‌ای یکجور از خود نشان دهند. این امر می‌تواند به انسان این توهم را بدهد که آن‌ها تا حدی با هم همبستگی و ارتباط معنادار دارند. برای مثال آیا می‌دانستید مصرف مارگارین (کره‌ی گیاهی) در آمریکا تا حد زیادی با نرخ طلاق در ایالت مین همبستگی دارد؟   البته برخی -بنا بر تجارب شخصی و هوش انسانی-  همواره فکر می‌کنند هر ارتباط مستقیمی بین این دو مسئله بعید و محال است. یک مدل ریاضی نمی‌تواند چنین دانشی داشته باشد- تنها کارش یادگیری و تعمیم داده‌هاست. نمونه‌ی بارز آن برنامه‌ایست که بیماران را بنا بر درجه‌ی نیازشان به کمک پزشکی تقسیم‌بندی ‌کرد و در نهایت به این نتیجه رسید که بیمارانِ مبتلا به آسم که ذات الریه داشتند اوضاعشان به حادیِ بیماران ذات‌الریه که آسم نداشتند نیست. این برنامه به داده‌ها نگاه می‌کرد و در نهایت نتیجه اش این بود که بیماران آسمی کمتر در خطر  مرگ بودند و بنابراین نباید در اولویت قرارشان داد. در حقیقت دلیل پایین بودن نرخ مرگ بر اثر آسم این بود که این بیماران همیشه مراقبت‌های فوری پزشکی دریافت می‌کردند (زیرا شرایطشان به حدی وخیم بود که ممکن بود هر آن بر اثر این بیماری جان خود را از دست دهند). حلقه‌های بازخورد بازخوردها حتی از همبستگی‌های کاذب نیز بدتر هستند. یک حلقه‌ی بازخورد جایی است که در آن، تصمیم‌های یک الگوریتم بر واقعیت تأثیر می‌گذارد که در عوض الگوریتم را متقاعد می‌سازد نتیجه‌گیری‌اش درست است. برای مثال، یک برنامه‌ی جلوگیری از جرم در کالیفرنیا پیشنهاد داد که (بر اساس نرخ جرم) پلیس باید افسران بیشتری به مناطق آفریقایی-آمریکایی اعزام کند (تعداد جرم و جنایت‌های ثبت و ضبط‌شده). اما وجود نیروهای بسیار در منطقه باعث شد شهروندان تعداد دفعات بیشتری گزارش جرم دهند (و اینگونه افسران مجبور بودند مدام به منطقه اعزام شوند). پایگاه داده‌ مرجع "آلوده" یا "سمی" پیامدهای یادگیریِ الگوریتم تا حد زیادی به پایگاه داده‌ی مرجع بستگی دارد که اساس یادگیری را شکل می‌دهد. با این حال، این داده‌ها ممکن است یا به طور تصادفی و یا تعمداً (که معمولاً در این مورد می‌گویند پایگاه اطلاعاتی مرجع سمی است) از سوی شخص بد و مخرب از آب دربیایند. در ادامه نمونه‌ای از مشکلات غیرعمد و تصادفی در بخش پایگاه‌های اطلاعاتی مرجع آورده‌ایم. اگر اطلاعاتی که برای بکارگیری یک الگوریتم -به عنوان نمونه‌ی آموزشی- مورد استفاده قرار می‌گیرند از سوی شرکتی باشد که فعالیت‌های نژادپرستانه انجام می‌دهد، این الگوریتم هم نژادپرستانه خواهد بود. زمانی مایکروسافت به یک چت‌بات طریقه‌ی چت با کاربران را در توییتر آموزش داد. و بعد کمتر از 24 ساعت مجبور شدند این پروژه را تمام کنند زیرا برخی کاربران به این ربات یاد داده بودند که مثلاً کتابِ نبرد من (نوشته‌ی هیتلر) را از بَر بخواند. «تِی تنها در عرض 24 ساعت از "آدم‌ها خیلی خوبند" به یک نازیِ تمام‌عیار تبدیل شد و من خیلی به آینده‌ی هوش مصنوعیخوشبین نیستم» _ گری geraldmellor) @) 24 مارس سال 2016 حال بیایید نمونه‌ای از یک داده‌ مسموم را در یادگیری ماشین مورد بررسی قرار دهیم. مدل ریاضیِ یک لابراتوارِ تحلیل ویروس کامپیوتری به طور متوسط روزانه 1 میلیون فایل را پردازش می‌کند؛ این کار هم می‌تواند خوب باشد و هم آسیب‌رسان. یک هکر می‌تواند درست مشابه با کارکرد فایل‌های صحیح، به تولید فایل‌های مخرب ادامه دهد و آن‌ها را به لابراتوار بفرستد. این عمل به تدریج مرز بین فایل‌های مخرب و فایل‌های خوب را از بین می‌برد و کارایی مدل را پایین می‌آورد؛ شاید هم نهایتاً مثبت کاذب را مورد هدف خویش قرار دهد. از همین روست که لابراتوار کسپرسکی دارای مدل امنیتی چندلایه‌ است و هیچگاه تماماً به یادگیری ماشین تکیه نمی‌کند. متخصصین آنتی‌ویروس همیشه عملکرد ماشین را تحت نظارت قرار می‌دهند. فریب حتی یک مدل ریاضی که عملکرد خوبی دارد -همانی که تکیه‌اش بر داده‌های خوب است- نیز باز می‌تواند فریب بخورد؛ تنها کافی است لِمَش را بداند. برای مثال، گروهی از محققین دریافتند چطور یک الگوریتم شناسایی چهره را با استفاده از عینک‌های بخصوص -که کمترین میزان مداخله را در تصویر ایجاد می‌کنند-  گول بزنند و نهایتاً کل نتیجه را تغییر دهند.   علاوه بر این، نیازی نیست برای کاهش مدل ریاضیِ یادگیری ماشین، این تغییرات بسیار فاحش و قابل‌ملاحظه باشند- تغییرات جزئی که چشم انسان آن‌ها را تشخیص نمی‌دهد کافی خواهد بود.   مادامیکه بشر از بسیاری از الگوریتم‌ها هوشمندتر باشد، انسان‌ها قادر خواهند بود به آن‌ها کلک بزنند. فناوری یادگیری ماشینی را در آینده متصور شوید که چمدانی را در فروشگاه با اشعه‌ی ایکس بازرسی می‌کند و به دنبال اسلحه است؛ یک تروریست حرفه‌ای به سادگی خواهد توانست جسمی با قد و قواره‌ای مشابه را کنار اسلحه بگذارد و محموله را قایم کند.   چه کسی تقصیرکار است؟ و چاره چیست؟ در سال 2016، "گروه کار کلان داده" متعلق به ریاست جمهوری اوباما گزارشی منتشر کرد و در مورد "احتمال رمزگذاریِ تفاوت‌ها در تصمیم‌های اتوماتیک" هشدار داد. این گزارش همچنین حاوی درخواستی بود برای ساخت الگوریتم‌هایی که دنبال کردن چنین اصولی از اساس در طراحی‌شان نهادینه شده است. البته گفتن این حرف آسان‌تر از عمل کردن به آن است. اول از همه اینکه آزمایش و اصلاح مدل ریاضی یادگیری ماشین کار بسیار سختی است. ما برنامه‌های عادی را قدم به قدم ارزیابی می‌کنیم و می‌دانیم چطور آن‌ها را آزمایش کنیم؛ اما وقتی پای یادگیری ماشین وسط است، همه‌چیز به سایز نمونه‌ی یادگیری بستگی دارد. دوم اینکه به‌سختی می‌توان تصمیمات الگوریتم‌های یادگیری ماشین را درک نموده و توضیح داد. یک شبکه‌ی عصبی، عامل‌های مشترک بسیاری را در خود مرتب می‌کند تا نهایتاً به یک پاسخ درست برسد؛ اما چگونه؟ چطور می‌شود این جواب را تغییر داد؟ هیچ کس را نمی‌توان سرزنش کرد؛ این ما هستیم که باید قوانین و قواعد اخلاقی جدیدی برای علم رباتیک تعریف کنیم. در ماه می 2018، کشور آلمان اولین گام‌های خود را در این راستا برداشت و برای خودروهای خودگردان قوانین اخلاقی جدیدی وضع کرد. بدیهی است که هر چه پیش می‌رویم، بیشتر و بیشتر به یادگیری ماشین وابسته می‌شویم، تنها به این دلیل که این فرآیند کارها را خیلی بهتر از برخی از ما انسان‌ها مدیریت می‌کند. بنابراین، باید این نواقص و مشکلات را همیشه مد نظر داشت و تمامی احتمالات را در مرحله‌ی ساخت در نظر گرفت. همچنین می‌بایست به یاد داشت اگر روند کارکرد الگوریتمی در آستانه‌ انحراف است، آن را با دقت تمام مورد بررسی و نظارت قرار داد.    
ادامه مطلب »