آیفون ۱۶، چند صد دلار گران‌تر از آمریکا، به روسیه رسید کارت‌های امروز راکی ربیت (جمعه ۳۰ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی کدمورس جدید همسترکامبت (جمعه ۳۰ شهریور ۱۴۰۳) + راهنمای کلید مینی‌گیم و کارت‌های امروز همستر سونی برای زنده‌کردن خاطره «پلی استیشن ۱» ظاهر پلی استیشن ۵ را به ۳۰ سال قبل برگرداند + عکس و ویدئو دانشمندان با حل رازی ۵۰ ساله، یک گروه خونی جدید کشف کردند پاسخ پازل امروز میجر (جمعه ۳۰ شهریور ۱۴۰۳) اپل پشتیبانی از چند زبان دیگر را به Apple Intelligence اضافه می‌کند کارت‌های امروز راکی ربیت (پنجشنبه ۲۹ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی کدمورس جدید همسترکامبت (پنجشنبه ۲۹ شهریور ۱۴۰۳) + آموزش کلید مینی‌گیم و کارت‌های امروز همستر سامسونگ از گوشی ارزان گلکسی F05 رونمایی کرد + مشخصات و قیمت اینستاگرام از تنظیمات اکانت کاربران زیر ۱۸ سال رونمایی کرد اولین اطلاعات از بازی جدید سری «بتلفیلد» (Battlefield) منتشر شد نخستین ویدئو از آنباکس آیفون ۱۶ پرو پیجر (Pager) چیست و چگونه کار می‌کند؟ کارت‌های امروز راکی ربیت (چهارشنبه ۲۸ شهریور ۱۴۰۳) + پاسخ انیگما جدید و توکن‌های مخفی اولین تصاویر از مقایسه گرافیک بازی‌ها در پلی استیشن ۵ پرو و پلی استیشن ۵ معمولی + عکس کدمورس جدید همسترکامبت (چهارشنبه ۲۸ شهریور ۱۴۰۳) + آموزش کلید مینی‌گیم و کارت‌های امروز همستر سیستم‌عامل iOS ۱۸ منتشر شد | iOS ۱۸ بر روی کدام گوشی‌ها قابل‌نصب است؟ تاریخ به‌پایان‌رسیدن ماینینگ «همستر کامبت» مشخص شد! + جزئیات اختلال اینترنت در کشور برطرف شد (۲۷ شهریور ۱۴۰۳) رشد دوپله‌ای جایگاه اینترنت ثابت ایران
سرخط خبرها

فریب هوش مصنوعی گوگل توسط محققان MIT

  • کد خبر: ۱۷۳۳۵
  • ۲۰ بهمن ۱۳۹۸ - ۱۶:۳۲
فریب هوش مصنوعی گوگل توسط محققان MIT
تا به حال از شیوه‌های مختلفی برای فریب سیستم‌های هوش مصنوعی استفاده شده و در تازه‌ترین رویداد از این دست، محققان دانشگاه ام آی تی سیستم هوش مصنوعی گوگل را فریب داده اند.
به گزارش شهرآرانیوز؛ پژوهشگران این دانشگاه یک سیستم متنی موسوم به تکست فولر ابداع کرده‌اند که می‌تواند مدل‌های هوش مصنوعی که از سیستم پردازش زبان‌های طبیعی استفاده می‌کنند را گول بزند.

بسیاری از دستیار‌های صوتی مانند الکسای آمازون و سیری اپل از سیستم پردازش زبان‌های طبیعی برای درک دستورات کاربران استفاده می‌کنند و لذا فریب آن‌ها می‌تواند امنیت چنین سیستم‌هایی را به خطر بیاندازد. همچنین فریب سیستم مذکور موجب سوءاستفاده از آن‌ها برای ارسال هرزنامه یا متون غیرمؤدبانه می‌شود.

تکست فولر یک سیستم فریبنده است که با درک نقص‌ها و ضعف‌های سیستم پردازش زبان‌های طبیعی آن‌ها را فریب می‌دهد.

این سیستم جملاتی را با دستکاری چند کلمه آن‌ها به خورد سیستم پردازش زبان‌های طبیعی می‌دهد، بدون اینکه دستکاری یادشده موجب تغییر معنا یا ایجاد غلط‌های دستور زبانی شود.

بعد از این کار و بررسی واکنش سیستم پردازش زبان‌های طبیعی به این تغییر، به تدریج تغییرات جدی‌تر و عمیق‌تری در جملات ایجاد می‌شود تا در نهایت از حساسیت و دقت این سیستم کاسته شود و بتوان آن را فریب داد.

محققان دانشگاه ام آی تی می‌گویند با همین روش سه مدل متداول در سیستم پردازش زبان‌های طبیعی را دستکاری کرده و فریب داده‌اند.

یکی از این مدل‌ها که برت نام دارد، یک مدل زبانی متن باز ابداع شده توسط گوگل است که تنها تغییر ۱۰ درصد از بخش‌های هر جمله توسط تکست فولر به فریب آن منجر شد. بر همین اساس انتظار می‌رود شرکت‌های فناوری برای ارتقای سیستم پردازش زبان‌های طبیعی اقدام کنند تا از دستکاری آن جلوگیری کنند.
گزارش خطا
ارسال نظرات
دیدگاه های ارسال شده توسط شما، پس از تائید توسط شهرآرانیوز در سایت منتشر خواهد شد.
نظراتی که حاوی توهین و افترا باشد منتشر نخواهد شد.
پربازدید
{*Start Google Analytics Code*} <-- End Google Analytics Code -->