خطرات واقعی هوش مصنوعی

خطرات واقعی هوش مصنوعی

۲۷ دی, ۱۴۰۴
۲۲ مهر, ۱۴۰۴
بدون دیدگاه
56
admin

مقدمه: فراتر از هیاهو

بحث درباره هوش مصنوعی (AI) همه جا را فرا گرفته است، اما واقعیت نحوه کارکرد این فناوری و چالش‌های پیش روی آن، بسیار شگفت‌انگیزتر و پیچیده‌تر از روایت‌های رایج است. این مقاله چهار مورد از تأثیرگذارترین و غیرمنتظره‌ترین واقعیت‌های هوش مصنوعی مدرن را بررسی می‌کند تا درک عمیق‌تری از این ابزار قدرتمند به شما ارائه دهد.

هوش مصنوعی الگوها را تشخیص می‌دهد، اما جهان را «درک» نمی‌کند

اینجا اساسی‌ترین سوءتفاهم درباره هوش مصنوعی نهفته است. ما می‌بینیم که وظایف پیچیده‌ای را انجام می‌دهد و تصور می‌کنیم مانند ما «فکر» می‌کند. اما واقعیت کاملاً متفاوت است. انسان‌ها بر اساس مدل‌های عمیق «معنایی» و «بافتاری» از جهان عمل می‌کنند. به عنوان مثال، ما می‌دانیم دوچرخه چیست، چگونه حرکت می‌کند و قوانین یک میدان چگونه است. در مقابل، یک سیستم هوش مصنوعی، حتی اگر بسیار پیشرفته باشد، فاقد این درک واقعی است. این سیستم‌ها داده‌ها را برای یافتن الگوها پردازش می‌کنند، اما دانش زیربنایی یا عقل سلیمی که انسان‌ها دارند را ندارند. به همین دلیل، هوش مصنوعی ذاتاً نمی‌داند «دوچرخه» یا «میدان» به معنای انسانی آن چیست، که این امر می‌تواند منجر به شکست در موقعیت‌های جدید و پیش‌بینی‌نشده شود.

این فقدان درک واقعی، مستقیماً به محدودیت حیاتی دیگری منجر می‌شود: هوش مصنوعی با اینکه در یافتن ارتباطات در داده‌ها یک نابغه است، اما هیچ ایده‌ای ندارد که این ارتباطات واقعاً چه معنایی دارند.

هوش مصنوعی در یافتن ارتباطات نابغه است، اما نمی‌تواند «چرا» را توضیح دهد

یکی از محدودیت‌های بنیادین یادگیری ماشین (ML)، ناتوانی در تشخیص تفاوت بین همبستگی و علیت است. مدل‌های یادگیری ماشین طوری طراحی شده‌اند که همبستگی‌ها را در داده‌ها، اغلب با دقتی باورنکردنی، شناسایی کنند. برای مثال، مطالعه‌ای با استفاده از یادگیری ماشین، همبستگی بین شکل بدن و درآمد را شناسایی کرد و دریافت که چاقی در زنان با درآمد پایین‌تر همبستگی دارد.

نکته حیاتی اینجاست: این همبستگی به این معنا نیست که یکی علت دیگری است. ممکن است درآمد پایین دسترسی به غذای سالم را محدود کند و منجر به چاقی شود، یا عوامل سنجیده‌نشده دیگری در این میان نقش داشته باشند.

اشتباه است اگر استنباط کنیم که شکل بدن باعث درآمد پایین می‌شود – ممکن است افرادی که درآمد پایینی دارند، توانایی خرید رژیم غذایی مناسب را نداشته باشند و این موضوع منجر به چاقی شود.

اینجا نقطه‌ای است که هوش مصنوعی می‌تواند به یک آینه خطرناک تبدیل شود که سوگیری‌های اجتماعی پنهان در داده‌ها را بازتاب داده و تقویت می‌کند. سیستم، سوگیری را ایجاد نمی‌کند، اما به آن حس کاذبی از اعتبار عینی و داده‌محور می‌بخشد.

اگر نتوانیم مطمئن باشیم که هوش مصنوعی چرا یک ارتباط را می‌بیند، وقتی حتی نتوانیم ببینیم چگونه به نتیجه رسیده است، مشکل دوچندان می‌شود.

ما همیشه نمی‌توانیم به درون «ذهن» هوش مصنوعی نگاه کنیم

نابغه‌ای را تصور کنید که همیشه پاسخ درست را به شما می‌دهد، اما هرگز نمی‌تواند روش حل خود را نشان دهد. این، به طور خلاصه، مشکل «جعبه سیاه» یا «عدم شفافیت» است که گریبان‌گیر برخی از قدرتمندترین سیستم‌های هوش مصنوعی مانند شبکه‌های عصبی عمیق (DNNs) شده است. این عدم شفافیت درک اینکه چرا یک مدل تصمیم خاصی گرفته است را دشوار می‌کند و در نتیجه، شناسایی و اصلاح سوگیری‌های پنهان در سیستم را نیز سخت‌تر می‌سازد.

برای حل این مشکل، رشته‌ای به نام «هوش مصنوعی قابل توضیح» (explainable AI) در حال توسعه است. یکی از تکنیک‌های این حوزه «اهمیت ویژگی» (feature importance) نام دارد. این روش به سادگی نشان می‌دهد که کدام بخش از داده‌های ورودی (ویژگی‌ها) بیشترین تأثیر را بر خروجی هوش مصنوعی داشته‌اند. برای مثال، دو مدل هوش مصنوعی را تصور کنید که در پیش‌بینی بهبودی بیمار دقت یکسانی دارند. با استفاده از «اهمیت ویژگی»، متوجه می‌شویم که یک مدل پیش‌بینی‌های خود را بر اساس داده‌های بالینی انجام می‌دهد، در حالی که مدل دیگر به شدت به سن و جنسیت بیمار تکیه دارد. مدل دوم، با وجود «دقیق» بودن از نظر فنی، ممکن است در حال کدگذاری سوگیری‌های مضر باشد. بدون توانایی نگاه کردن به درون جعبه سیاه، ما هرگز تفاوت را نمی‌فهمیدیم.

بزرگترین خطر، نیت بد نیست، بلکه طراحی ناقص است

حادثه مرگبار مارس ۲۰۱۸ با خودروی خودران آزمایشی اوبر در آریزونا، یک نمونه واقعی و قدرتمند از خطرات هوش مصنوعی است. در این حادثه، ترکیبی از نقص‌های فنی و خطای انسانی منجر به یک تراژدی شد. خلاصه‌ای از شکست‌های فنی کلیدی به شرح زیر است:

  • سیستم به طور مکرر عابر پیاده (الین هرزبرگ) و دوچرخه‌اش را اشتباه طبقه‌بندی می‌کرد.
  • هر بار که او را مجدداً طبقه‌بندی می‌کرد، تاریخچه حرکتی قبلی او را نادیده می‌گرفت، بنابراین هرگز مسیر واقعی او را در عرض جاده پیش‌بینی نکرد.
  • سیستم طوری طراحی شده بود که برای جلوگیری از هشدارهای مثبت کاذب (ترمزهای غیرضروری)، به طور خودکار ترمز نکند و در عوض به راننده ناظر انسانی برای مداخله تکیه داشت.

عامل انسانی نیز نقش مهمی داشت. گزارش‌ها حاکی از آن است که راننده ناظر به دلیل «سوگیری اتوماسیون» (اعتماد بیش از حد به سیستم) توجه کافی نداشته است. این موضوع مسئولیت‌پذیری را در تعامل انسان و ماشین به یک ناحیه خاکستری پیچیده تبدیل می‌کند: شرکت اوبر در این حادثه از نظر قانونی (کیفری) بی‌گناه شناخته شد، اما راننده ناظر با محاکمه‌ای به اتهام قتل از روی سهل‌انگاری روبرو است. گزارش رسمی این حادثه نتیجه‌گیری می‌کند:

سیستم رانندگی خودکار «هرگز به درستی او را به عنوان یک عابر پیاده طبقه‌بندی نکرد و مسیر او را پیش‌بینی ننمود.»

این تراژدی یک نمونه کلاسیک از شکست زنجیره‌ای است. این فقط یک الگوریتم نبود که شکست خورد؛ بلکه کل سیستم تعامل دچار نقص بود. منطق طبقه‌بندی هوش مصنوعی شکننده بود، فرضیات طراحی آن درباره نظارت انسانی اشتباه بود، و اعتماد انسان به ماشین بی‌جا بود. بزرگترین خطر، یک هوش مصنوعی سرکش نبود، بلکه یک همکاری ضعیف طراحی‌شده بین انسان و ماشین بود.

نتیجه‌گیری: ابزاری قدرتمند، نه یک ذهن جادویی

در نهایت، چالش هوش مصنوعی، مهار یک ابرهوش نیست، بلکه نگه داشتن آینه‌ای در برابر محدودیت‌های خودمان در طراحی، تفسیر و آینده‌نگری است. این ابزاری قدرتمند است که سوگیری‌ها و نقاط کور ما را به ارث می‌برد. با ادغام هرچه بیشتر این سیستم‌ها در زندگی ما، چگونه می‌توانیم اطمینان حاصل کنیم که سوالات درستی را برای ساختن آینده‌ای می‌پرسیم که در آن از این فناوری قدرتمند به صورت خردمندانه و ایمن استفاده شود؟

وبلاگ های اخیر

آرشیو وبلاگ

دیدگاه شما

تمامی حقوق این وبسایت متعلق به فرشته گوهری میباشد.