۵ خطر بزرگ هوش مصنوعی که بسیار به ما نزدیک هستند

 ۵ خطر بزرگ هوش مصنوعی که بسیار به ما نزدیک هستند

هوش مصنوعی

هوش مصنوعی وارد انواع و اقسام صنایع شده و روزبه‌روز نقش مهم‌تری پیدا می‌کند. با پیشرفت شگفت‌انگیز این فناوری، این امکان را دارد که بسیاری از جنبه‌های زندگی را به طور شگفت‌انگیزی بهبود ببخشد اما از طرف دیگر نباید خطرات احتمالی آن را نادیده بگیریم.

با توجه به اینکه تعداد قابل توجهی از کارشناسان در مورد خطرات احتمالی هوش مصنوعی هشدار می‌دهند، بهتر است به این هشدارها توجه کنیم. از طرف دیگر، برخی مدعی هستند که چنین دیدگاه‌هایی صرفاً برای ایجاد جاروجنجال مطرح می‌شوند و هیچ خطر فوری از جانب هوش مصنوعی وجود ندارد.

بنابراین آیا نگرانی‌های مربوط به هوش مصنوعی جدی هستند یا اینکه باید آن‌ها را نادیده بگیریم؟ در این مقاله به ۵ خطر مهم هوش مصنوعی اشاره کنیم که در آینده‌ی نزدیک می‌توانند مشکلات زیادی را ایجاد کنند.

هوش مصنوعی چگونه می‌تواند خطرناک باشد؟

 

این فناوری روزبه‌روز پیچیده‌تر می‌شود و همین پیشرفت می‌تواند منجر به بروز خطرات مختلفی از جمله موارد ساده (اختلال در کار) تا خطرات فاجعه‌بار شود. با توجه به اختلاف نظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات آن هم یک دیدگاه مشترک و جامع دیده نمی‌شود. عموماً تصور می‌شود که هوش مصنوعی از دو طریق می‌تواند خطرناک باشد:

این فناوری برای انجام کاری مخرب برنامه‌ریزی شود.
این فناوری برای مفید بودن برنامه‌ریزی شود اما در حین رسیدن به هدف خود کار مخربی انجام دهد.

 

سلاح‌های هوشمند

 

این ریسک‌ها با پیچیدگی نرم‌افزار هوش مصنوعی تقویت می‌شوند. سال‌ها قبل یکی از فیلسوف‌های مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او می‌گوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازه‌ی کافی باهوش باشد، می‌تواند کل دنیا را برای رسیدن به این هدف نابود کند.

اما به غیر از این خطرات فاجعه‌آور که به نظر نمی‌رسد در آینده‌ی نزدیک تحقق پیدا کنند، می‌توانیم به ۵ خطر فوری اشاره کنیم که می‌توانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.

۱. اتوماسیون شغل‌ها

 

 

 

اتوماسیون یا خودکارسازی از جمله مهم‌ترین خطرات هوش مصنوعی برای شغل‌های مختلف است. از کارخانه‌ها گرفته تا اتومبیل‌های خودکار، آغاز اتوماسیون به دهه‌ها قبل برمی‌گردد ولی روزبه‌روز شتاب آن بیشتر می‌شود.

مساله این است که برای بسیاری از کارهای مختلف، سیستم‌های هوش مصنوعی نسبت به انسان‌ها عملکرد بهتری دارند. روی هم رفته در این موارد ارزان‌تر، دقیق‌تر و کارآمدتر از انسان‌ها عمل می‌کنند. به عنوان مثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل می‌کند و حالا این سیستم‌ها در زمینه‌ی تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند.

از طرف دیگر، وقتی که هوش مصنوعی بسیاری از شغل‌ها را تصرف کند، بخش بزرگی از کارگران که شغل خود را از دست داده‌اند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستم‌های هوش مصنوعی، مهارت‌های آن‌ها برای انجام کارهای مختلف بهتر از انسان‌ها خواهد شد و اختلال در کار هم می‌تواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعه‌ی اقتصادی شود.

۲. امنیت و حریم خصوصی

 

 

مشکل اصلی این است که با افزایش نگرانی‌های امنیتی مبتنی بر هوش مصنوعی، تدابیر پیش‌گیری با استفاده از هوش مصنوعی هم افزایش پیدا می‌کنند. این مشکل همچنین این سوال را مطرح می‌کند که ما چگونه سیستم‌های هوش مصنوعی را ایمن می‌کنیم؟ اگر از الگوریتم‌های هوش مصنوعی برای دفاع در برابر نگرانی‌های امنیتی استفاده می‌کنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی‌ هم اطمینان حاصل کنیم.

در زمینه‌ی حریم خصوصی هم شرکت‌های بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولت‌ها و نهادهای نظارتی قرار گرفته‌اند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد می‌شود و الگوریتم‌های پیشرفته با استفاده از این داده‌ها می‌توانند پروفایل‌های بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.

از دیگر نگرانی‌ها می‌توانیم به تکنولوژی‌های تشخیص چهره اشاره کنیم و گزارش‌ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینک‌های هوشمند مجهز به نرم‌افزار تشخیص چهره استفاده می‌کنند. چنین تکنولوژی‌هایی می‌توانند منجر به گسترش رژیم‌های استبدادی شوند یا اینکه افراد یا گروه‌هایی با اهداف بدخواهانه از آن‌ها سوءاستفاده کنند.

۳. بدافزار هوش مصنوعی

 

 

هوش مصنوعی به طور فزاینده‌ای در هک کردن سیستم‌های امنیتی و شکستن رمزگذاری‌های مختلف بهتر می‌شود. بخشی از این موضوع به تکامل الگوریتم‌های یادگیری ماشینی برمی‌گردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهتر می‌شود و با گذر زمان خطر آن هم افزایش پیدا می‌کند.

برخی فناوری‌های هوشمند (مانند اتومبیل‌های خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا می‌توانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوری‌های هوشمند متکی به اینترنت، زندگی روزمره‌ی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار می‌گیرد.

۴. سلاح‌های خودمختار

 

 

سلاح‌های خودمختار-سلاح‌هایی که به جای انسان‌ها توسط سیستم‌های هوش مصنوعی کنترل می‌شوند-مدت‌هاست که انجام وظیفه می‌کنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره کنیم که از سازمان ملل خواسته‌اند تا راهی برای حفاظت از بشریت در برابر سلاح‌های مستقل ایجاد کند.

نیروهای نظامی کشورهای مختلف در حال حاضر به سلاح‌های مبتنی بر هوش مصنوعی‌ یا سلاح‌هایی که تا حدی به این سیستم‌ها متکی هستند، دسترسی دارند. به عنوان مثال می‌توانیم به پهپادهای نظامی اشاره کنیم که مثلا با بهره‌گیری از سیستم‌های تشخیص چهره می‌توانند یک فرد را با دقت زیادی ردیابی کنند.

اما وقتی که به الگوریتم‌های هوش مصنوعی‌ اجازه دهیم بدون دخالت انسان در مورد مرگ و زندگی تصمیم‌گیری کنند، چه اتفاقی می‌افتد؟ چنین قابلیت‌هایی می‌توانند تبعات فاجعه‌باری به همراه داشته باشند.

۶. دیپ‌فیک و اخبار جعلی

 

 

تکنولوژی دیپ‌فیک روزبه‌روز پیشرفته‌تر می‌شود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورد استفاده قرار می‌گیرد اما همین حالا هم برخی کلاه‌برداران با استفاده از تصویر پروفایل افراد معمولی در شبکه‌های اجتماعی ویدیوهای جعلی از آن‌ها درست می‌کنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی‌ برای ویرایش تصاویر و شبیه‌سازی صدا هم اشاره کنیم که می‌توانند تأثیر زیادی بر جامعه داشته باشند.
سخن آخر

با پیشرفت هوش مصنوعی، کاربردهای آن هم بیشتر می‌شود. اما متأسفانه یک تکنولوژی جدید قدرتمند همواره در معرض خطر سوءاستفاده قرار دارد. این خطرات تمام جنبه‌های زندگی روزمره‌ی ما را تحت تأثیر قرار می‌دهند؛ از حریم خصوصی و امنیت سیاسی گرفته تا اتوماسیون شغل‌ها. اولین گام در کاهش خطرات هوش مصنوعی‌ این است که تصمیم بگیریم این فناوری در چه موقعیت‌هایی استفاده شود و در چه شرایطی از استفاده از آن اجتناب کنیم.

شما در مورد این موضوع چه فکر می‌کنید؟ آیا هوش مصنوعی‌ واقعا خطرات جدی به همراه دارد یا اینکه چنین هشدارهایی را چندان نباید جدی گرفت؟ نظرات خود را در بخش کامنت‌ها با ما و دیگران در میان بگذارید.

Nic

Related post

دیدگاهتان را بنویسید