مقدمه: فراتر از هیاهو
بحث درباره هوش مصنوعی (AI) همه جا را فرا گرفته است، اما واقعیت نحوه کارکرد این فناوری و چالشهای پیش روی آن، بسیار شگفتانگیزتر و پیچیدهتر از روایتهای رایج است. این مقاله چهار مورد از تأثیرگذارترین و غیرمنتظرهترین واقعیتهای هوش مصنوعی مدرن را بررسی میکند تا درک عمیقتری از این ابزار قدرتمند به شما ارائه دهد.
هوش مصنوعی الگوها را تشخیص میدهد، اما جهان را «درک» نمیکند
اینجا اساسیترین سوءتفاهم درباره هوش مصنوعی نهفته است. ما میبینیم که وظایف پیچیدهای را انجام میدهد و تصور میکنیم مانند ما «فکر» میکند. اما واقعیت کاملاً متفاوت است. انسانها بر اساس مدلهای عمیق «معنایی» و «بافتاری» از جهان عمل میکنند. به عنوان مثال، ما میدانیم دوچرخه چیست، چگونه حرکت میکند و قوانین یک میدان چگونه است. در مقابل، یک سیستم هوش مصنوعی، حتی اگر بسیار پیشرفته باشد، فاقد این درک واقعی است. این سیستمها دادهها را برای یافتن الگوها پردازش میکنند، اما دانش زیربنایی یا عقل سلیمی که انسانها دارند را ندارند. به همین دلیل، هوش مصنوعی ذاتاً نمیداند «دوچرخه» یا «میدان» به معنای انسانی آن چیست، که این امر میتواند منجر به شکست در موقعیتهای جدید و پیشبینینشده شود.
این فقدان درک واقعی، مستقیماً به محدودیت حیاتی دیگری منجر میشود: هوش مصنوعی با اینکه در یافتن ارتباطات در دادهها یک نابغه است، اما هیچ ایدهای ندارد که این ارتباطات واقعاً چه معنایی دارند.
هوش مصنوعی در یافتن ارتباطات نابغه است، اما نمیتواند «چرا» را توضیح دهد
یکی از محدودیتهای بنیادین یادگیری ماشین (ML)، ناتوانی در تشخیص تفاوت بین همبستگی و علیت است. مدلهای یادگیری ماشین طوری طراحی شدهاند که همبستگیها را در دادهها، اغلب با دقتی باورنکردنی، شناسایی کنند. برای مثال، مطالعهای با استفاده از یادگیری ماشین، همبستگی بین شکل بدن و درآمد را شناسایی کرد و دریافت که چاقی در زنان با درآمد پایینتر همبستگی دارد.
نکته حیاتی اینجاست: این همبستگی به این معنا نیست که یکی علت دیگری است. ممکن است درآمد پایین دسترسی به غذای سالم را محدود کند و منجر به چاقی شود، یا عوامل سنجیدهنشده دیگری در این میان نقش داشته باشند.
اشتباه است اگر استنباط کنیم که شکل بدن باعث درآمد پایین میشود – ممکن است افرادی که درآمد پایینی دارند، توانایی خرید رژیم غذایی مناسب را نداشته باشند و این موضوع منجر به چاقی شود.
اینجا نقطهای است که هوش مصنوعی میتواند به یک آینه خطرناک تبدیل شود که سوگیریهای اجتماعی پنهان در دادهها را بازتاب داده و تقویت میکند. سیستم، سوگیری را ایجاد نمیکند، اما به آن حس کاذبی از اعتبار عینی و دادهمحور میبخشد.
اگر نتوانیم مطمئن باشیم که هوش مصنوعی چرا یک ارتباط را میبیند، وقتی حتی نتوانیم ببینیم چگونه به نتیجه رسیده است، مشکل دوچندان میشود.
ما همیشه نمیتوانیم به درون «ذهن» هوش مصنوعی نگاه کنیم
نابغهای را تصور کنید که همیشه پاسخ درست را به شما میدهد، اما هرگز نمیتواند روش حل خود را نشان دهد. این، به طور خلاصه، مشکل «جعبه سیاه» یا «عدم شفافیت» است که گریبانگیر برخی از قدرتمندترین سیستمهای هوش مصنوعی مانند شبکههای عصبی عمیق (DNNs) شده است. این عدم شفافیت درک اینکه چرا یک مدل تصمیم خاصی گرفته است را دشوار میکند و در نتیجه، شناسایی و اصلاح سوگیریهای پنهان در سیستم را نیز سختتر میسازد.
برای حل این مشکل، رشتهای به نام «هوش مصنوعی قابل توضیح» (explainable AI) در حال توسعه است. یکی از تکنیکهای این حوزه «اهمیت ویژگی» (feature importance) نام دارد. این روش به سادگی نشان میدهد که کدام بخش از دادههای ورودی (ویژگیها) بیشترین تأثیر را بر خروجی هوش مصنوعی داشتهاند. برای مثال، دو مدل هوش مصنوعی را تصور کنید که در پیشبینی بهبودی بیمار دقت یکسانی دارند. با استفاده از «اهمیت ویژگی»، متوجه میشویم که یک مدل پیشبینیهای خود را بر اساس دادههای بالینی انجام میدهد، در حالی که مدل دیگر به شدت به سن و جنسیت بیمار تکیه دارد. مدل دوم، با وجود «دقیق» بودن از نظر فنی، ممکن است در حال کدگذاری سوگیریهای مضر باشد. بدون توانایی نگاه کردن به درون جعبه سیاه، ما هرگز تفاوت را نمیفهمیدیم.
بزرگترین خطر، نیت بد نیست، بلکه طراحی ناقص است
حادثه مرگبار مارس ۲۰۱۸ با خودروی خودران آزمایشی اوبر در آریزونا، یک نمونه واقعی و قدرتمند از خطرات هوش مصنوعی است. در این حادثه، ترکیبی از نقصهای فنی و خطای انسانی منجر به یک تراژدی شد. خلاصهای از شکستهای فنی کلیدی به شرح زیر است:
- سیستم به طور مکرر عابر پیاده (الین هرزبرگ) و دوچرخهاش را اشتباه طبقهبندی میکرد.
- هر بار که او را مجدداً طبقهبندی میکرد، تاریخچه حرکتی قبلی او را نادیده میگرفت، بنابراین هرگز مسیر واقعی او را در عرض جاده پیشبینی نکرد.
- سیستم طوری طراحی شده بود که برای جلوگیری از هشدارهای مثبت کاذب (ترمزهای غیرضروری)، به طور خودکار ترمز نکند و در عوض به راننده ناظر انسانی برای مداخله تکیه داشت.
عامل انسانی نیز نقش مهمی داشت. گزارشها حاکی از آن است که راننده ناظر به دلیل «سوگیری اتوماسیون» (اعتماد بیش از حد به سیستم) توجه کافی نداشته است. این موضوع مسئولیتپذیری را در تعامل انسان و ماشین به یک ناحیه خاکستری پیچیده تبدیل میکند: شرکت اوبر در این حادثه از نظر قانونی (کیفری) بیگناه شناخته شد، اما راننده ناظر با محاکمهای به اتهام قتل از روی سهلانگاری روبرو است. گزارش رسمی این حادثه نتیجهگیری میکند:
سیستم رانندگی خودکار «هرگز به درستی او را به عنوان یک عابر پیاده طبقهبندی نکرد و مسیر او را پیشبینی ننمود.»
این تراژدی یک نمونه کلاسیک از شکست زنجیرهای است. این فقط یک الگوریتم نبود که شکست خورد؛ بلکه کل سیستم تعامل دچار نقص بود. منطق طبقهبندی هوش مصنوعی شکننده بود، فرضیات طراحی آن درباره نظارت انسانی اشتباه بود، و اعتماد انسان به ماشین بیجا بود. بزرگترین خطر، یک هوش مصنوعی سرکش نبود، بلکه یک همکاری ضعیف طراحیشده بین انسان و ماشین بود.
نتیجهگیری: ابزاری قدرتمند، نه یک ذهن جادویی
در نهایت، چالش هوش مصنوعی، مهار یک ابرهوش نیست، بلکه نگه داشتن آینهای در برابر محدودیتهای خودمان در طراحی، تفسیر و آیندهنگری است. این ابزاری قدرتمند است که سوگیریها و نقاط کور ما را به ارث میبرد. با ادغام هرچه بیشتر این سیستمها در زندگی ما، چگونه میتوانیم اطمینان حاصل کنیم که سوالات درستی را برای ساختن آیندهای میپرسیم که در آن از این فناوری قدرتمند به صورت خردمندانه و ایمن استفاده شود؟
دیدگاه شما