skip to Main Content
کشتار هوشمند
اسلایدر دانش

کشتار هوشمند

سلاح‌های هسته‌ای را فراموش کنید. بمب‌های شیمیایی و میکروبی را هم. چیزی خطرناک‌تر از همه‌ی اینها به زرادخانه‌ی دیوانگان راه پیدا کرده و روز به روز «دقیق‌تر» می‌شود. آنقدر دقیق که بتواند برای کشتار جمعی «عناصر نامطلوب» به کار رود. آیا بشر از شر سلاح‌های هوشمند جان سالم به در خواهد برد؟

تا امروز، بزرگترین خطری که تمدن ما را روی زمین تهدید می‌کند، تغییرات اقلمیی است. اما ممکن است در دهه‌های آینده با چیزی حتی هولناک‌تر طرف باشیم. در یکی از قسمت‌های سریال تلوزیونی «آینه‌‌ی سیاه» (Black Mirror)، چارلی بروکر آینده‌ای نه چندان دور را تصور کرده که جمعیت زنبورهای عسل در آن به شدت کاهش یافته است. با از میان رفتن زنبورهای عسل و سایر گرده‌افشانان، انسان‌ها برای تضمین ادامه‌ی گرده‌افشانی و تولید غذا، حشراتی مصنوعی تولید کرده‌اند که وظیفه‌ی گرده‌افشانان را بر عهده گیرند. روبات‌هایی بسیار کوچک به اندازه‌ی زنبورهای طبیعی که با استفاده از منابع در دسترس برای خود کندوهایی می‌سازند، خود را تکثیر می‌کنند و در جای جای کشور انگلستان پراکنده شده‌اند. بین مردم نظرات مختلفی درباره‌ی این پرندگان روباتیک وجود دارد. بعضی آنها را مفید و بعضی یک تهدید ارزیابی می‌کنند. گروهی هم معتقدند، دولت از این زنبورهای روباتیک برای جاسوسی استفاده می‌کند. اما همه‌ی این‌ها گمانه‌زنی هستند تا زمانی که زنبورها به ماشین‌های کشتار هوشمند بدل می‌شوند. داستان را بیش از این لو نمی‌دهم، ولی آنچه بروکر از آینده‌ی تاریک سلاح‌های هوشمند تصویر می‌کند، چندان هم تخیلی نیست.

کشتن بهینه

سلاح‌های هوشمند، ابزاری با توانایی کشتن و آسیب‌زدن هستند که بر خلاف سلاح‌های سنتی، می‌توانند خود تصمیمات لازم را برای «بهینه کردن» آسیب اخذ کنند. «بهینه کردن» فرآیند کشتار چیزی است که سازمان‌های دفاعی بسیار روی آن مانور می‌دهند. آنها به ما می‌گویند که «موشک‌های هوشمند، تانک‌های هوشمند و روبات‌های کشنده می‌توانند تلفات غیرنظامیان را کاهش دهند و از آسیب‌های غیرضروری جلوگیری کنند». احتمالا تا حدی هم درست بگویند. کشتار سهوی غیرنظامیان به علت خطای انسانی، همیشه جزوی از جنگ‌ها بوده است. می‌توان در مزمت جنگ بسیار گفت، اما بعید است بتوان استدلالی مخالف این داشت که هوش‌مصنوعی می‌تواند تلفات اشتباهی را کاهش دهد. مدتی پیش سازمان تحقیقات دفاعی ایالات متحده، یک درون را رونمایی کرد که می‌تواند «افراد مشکوک» را با استفاده از داده‌های تصویری یک دوربین که روی خود دارد شناسایی و مورد هدف قرار دهد. مدافعان شرکت‌های اسلحه‌سازی که هر یک برنامه‌هایی برای توسعه‌ی سلاح‌های هوشمند دارند، چنین پهپادهایی را مفید می‌دانند. ممکن است یکی از آنها به شما بگوید، در یک جشن، مراسم، رای‌گیری یا هر جایی که کروری انسان کنار هم جمع شده‌اند، حضور چنین پهپادهایی می‌تواند مفید باشد. اگر کسی بخواهد خودش را میان جمعیت منفجر کند، آیا منطقی نیست که یک پهپاد از بالا او را شناسایی و پیش از آنکه دهها نفر را به کشتن دهد، شکارش کند؟ کمی بعدتر وقتی خبر استفاده‌ی پنتاگون از کتابخانه‌ی هوش‌مصنوعی گوگل در تحلیل تصاویر پهپادها منتشر شد، موجی از اعتراض‌ها بین کارکنان گوگل به راه افتاد تا آنجا که گوگل اعلام کرد همکاری با پروژه‌های نظامی را متوقف کرده و مانیفستی در لزوم مسئولیت‌پذیری استفاده از هوش‌مصنوعی منتشر کرد.

گرچه فشار عمومی و استعفاهای دسته‌جمعی، غول عظیم اینترنت را به تغییر رویه واداشت (دست کم در ظاهر) اما تکنیک‌ها و ابزارهای هوش‌مصنوعی و یادگیری‌ماشینی در انحصار هیچ‌کس نیستند. هر گروه و کشوری می‌تواند ابزارهای مورد نیاز خود را طراحی و پیاده‌سازی کند و کسی هم نمی‌تواند جلوی آنها را بگیرد. چه بخواهند برای کمک به ازکارافتادگان، اسکلت‌های بیرونی طراحی کنند، چه برای استفاده در میدان جنگ.

همچنین بخوانید:  هر داستان داستانی دارد

جایی برای پنهان شدن

نه! هیچ جایی برای پنهان شدن از سلاح‌های هوشمند در کار نخواهد بود. سلاح‌هایی که می‌توانند شما را ردیابی کنند. در میان جمعیت به دنبالتان بگردند و در دل کوه‌ها و تونل‌ها و ساختمان‌ها سراغتان بیایند. از ماشین‌های بدون راننده تا پهپادهایی که خودشان در برابر وضعیت «بهترین» تصمیم را می‌گیرند، یادگیری ماشینی برای پیشبرد «هدف» مشخص شده برای دستگاه به کار می‌رود. مهم آن است که این هدف چه باشد. دیوانگانی که در میان لایه‌لایه‌های حفاظت‌شده نشسته‌اند و دکمه‌های قرمز زیر دستانشان است، این اهداف را تعیین می‌کنند. ممکن است یک سرهنگ یا ژنرال تصمیم بگیرد که مردم فولان نژاد خاص، مزاحم یا مخل هستند. کافی است دستور خود را به صورت یک جمله بیان کند. «همه‌ی آنها را بکش». ماشین‌های هوشمند، زبان او را پردازش می‌کنند، منظورش را از «آنها» آنطور که منظورش است، فهم می‌کنند و به سراغ جمعیتی می‌روند که از همه‌جا بی‌خبر در تلاش برای زنده‌ماندن، با سختی‌ها دست‌وپنجه نرم می‌کنند. تصور کنید آنچه این دو سال در روهینگیا به دست نظامیان در جریان بود را به دست «ماشین‌های کشتار هوشمند» بدهند. تصور کنید پلیس ضدشورش در خیابان با صدها پهپاد و ماشین روباتیک و سگ هوشمند مسلح به مصاف تظاهرکنندگان برود. حتی نه برای آنکه آنها بکشد، بلکه برای سرکوب. تصور کنید پیش از آنکه جرمی مرتکب شوید به اتهام «پیروی از الگوهای یک مجرم» توسط هوش‌مصنوعی به عنوان یک «هدف» شناسایی شوید.

دلبستگی جانیان به براقی و زیبایی موشک‌هایشان، هنگام لاف زدن از سلاح‌های هوشمند به «دقت» و «سرعت» آنهاست و اینجاست که وهم دقت بی‌نهایت آنها را بسیار بلندپروازتر از آنچه پیشتر بودند می‌کند. با خود می‌گویند، اگر سلاحی داریم کارا و دقیق، چرا هر جای دنیا را که خواستیم مورد هدف قرار ندهیم؟ چرا هر کسی را که از ما نبود از پای در نیاوریم؟ پس از جنگ جهانی دوم مقرراتی برای جلوگیری از دستیابی کشورهای فاقد سلاح‌های هسته‌ای به آنها، وضع شد. سازوکارهایی که نقدهایی جدی به آنها وارد است اما وحشت یک زمستان هسته‌ای را تا حدی از سر مردم زمین دور کرد. بعضی معتقدند تا پیش از آنکه دیر شود باید، مقرراتی مشابه برای جلوگیری از همه‌گیر شدن سلاح‌های هوشمند هم وضع شود. اما بعید است چنین رویکردی آنطور که برای سلاح‌های هسته‌ای جواب داد، اینبار هم مفید باشد.

فیلتر بزرگ

پیشتر در یادداشتی از خصوصی‌سازی فضا درباره‌ی پاردوکس فِرمی و توضیحات محتمل آن نوشته‌ام. یکی از توضیحات پارادوکس فِرمی (چرا با اینکه احتمال خوبی برای شکل‌گیری حیات هوشمند در ورای زمین وجود دارد، هیچ اثری از تمدن‌های هوشمند در کهکشان و ورای آن نمی‌بینیم؟) فیلترِ بزرگ است. فیلترهایی که امکان رسیدن به مرحله‌ی بسیار پیشرفته‌ی تکنولوژیک را از تمدن‌های هوشمند می‌گیرند و طول عمر آنها را کوتاه می‌کنند. یکی از فیلترهای قابل تصور، ماشین‌های کشتاری هستند آنچنان پیشرفته که چیزی جلوددارشان نباشد. ماشین‌هایی که ساختشان تکنولوژی چندان دور از دسترسی نیاز نداشته باشد و بسیاری بتوانند آنها را بسازند. شاید تنها یک درگیری «هوشمند» کافی باشد تا جنگی نابودگر به راه بیاندازد. جنگی که تمام یا بخش بزرگی از جمعیت زمین را به نابودی بکشد. استفاده از سلاح‌های هوشمند هرقدر هم که در یافتن و کشتن باهوش عمل کنند، می‌توانند نهایت بلاهت نوع بشر را به نمایش گذارند.

همچنین بخوانید:  قانون جدید چین در برابر همه‌گیری‌ها

اگر تا امروز این تغییرات‌اقلیمی ساخته‌ی دست انسان است که اذهان مردم جهان را به خود مشغول داشته، به زودی خطری از آن هم بزرگتر به تیتر یک اخبار بدل خواهد شد. روبات‌هایی که این روزها فیلم‌هایشان در شبکه‌های اجتماعی دست به دست می‌شود، در آینده‌ای نه چندان دور به میدان جنگ راه می‌یابند. (اطلس: پریدن و پشتک، پارکور! / چیتا: دویدن و پرش / ماشین‌های خودران جنگی  ) چیزی جلودارشان نیست. نه کوه‌های سنگلاخی و نه باران و مه و طوفان. نه گرما و نه سرما. آنها تا آنجا که هدف را نابود کنند به کار خود ادامه خواهد داد. دیوانگان در جهان در حال ساخت نسل جدیدی از ابزار کشتار هستند تا سلطه‌ی خود بر زمین را تحکیم کنند.

شرکت‌های بزرگ اسلحه‌سازی با استفاده از بودجه‌های عمومی و قراردادهای دولتی، در حال ساخت کروری سلاح‌های کشنده و هوشمندند تا هوشمندانه‌تر اهداف را تعقیب و نابود کنند. این جعبه‌ی پاندورایی است که دارند بازش می‌کنند. اگر Ak-47کلاشنیکف امروز سلاحی ارزان و کاراست که گروه گروه ارتش‌ها و شبهه‌نظامیان را برای کشتن مسلح کرده، جایش را به روبوت کشتار کلاشنیکف خواهد داد. تانک‌های هوشمند به صورت گروهی به اهداف (بخوانید خانه‌ها و روستاها و خیابان‌هایی شهرها) یورش می‌برند و موشک‌های بالستیک با مسیریابی هوشمند از همه‌ی تکنولوژی‌های قابل تصور برای پیدا کردن و منفجر کردن سوژه‌هایشان استفاده می‌کنند.

زندگی درون یک انقلاب

در داستان‌های ویرانشهری از دیکتاتوری‌های آینده، تکنولوژی نقشی اساسی دارد. اگر امروز کارکنان گوگل دسته‌جمعی استعفا می‌دهند و در محوطه‌ی شرکت گوگل، راهپیمایی اعتراضی برگذار می‌کنند، باید چنین حرکاتی به خیابان‌ها و مجالس قانون‌گذاری راه‌یابد تا سیاستمداران را وادارد سازوکاری برای نظارت عمومی بر تکنولوژی‌های نو وضع کنند. تکنولوژی‌هایی که می‌توانند برای تولید غذا و ارتقاع سلامت عمومی مورد استفاده قرار گیرند، نباید به ابزار کنترل، تنبیه و کشتار بدل شوند. گوشهایتان را تیز کنید، روز به روز اخبار بیشتری از بمب‌های براق و هوشمند خواهید شنید. حتی فشنگ‌هایی که مسیرشان را تغییر می‌دهند تا حتما به هدف اصابت کنند. جادوی هوش‌مصنوعی دارد، همه چیز را زیر و رو می‌کند. این یک انقلاب تکنولوژیک است. اما هنوز زود است که بگوییم، انقلابی به نفع ما بیش از ۷میلیارد نفر مردم زمین یا علیه‌مان.

بگذارید این سناریوهای ترسناک را با معرفی یک فیلم کوتاه تمام کنم. فیلم کوتاه «رویات‌کشتار» را گروه «ممنوعیت سلاح‌های خودران» ساخته‌اند تا توجه عمومی را به آینده‌ای که سلاح‌های هوشمند و روبات‌های قاتل می‌توانند برایمان رقم بزنند، جلب کنند.

https://www.youtube.com/watch?v=9CO6M2HsoIA&

 

https://youtu.be/9CO6M2HsoIA

This Post Has One Comment

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Back To Top
🌗