مسابقهٔ توسعه هوش مصنوعی (AI) شتاب گرفته و در حالی که ایالات متحده و چین پیشتازان این عرصه هستند، کشورهای دیگر، به ویژه کشورهای در حال توسعه، کاملا عقب مانده‌اند. اگر نتوانند خودشان را برسانند، چشم انداز اقتصادی و سیاسی آشفته‌ای خواهند داشت.

کشورهایی که از قافله عقب مانده‌اند با چالش‌های اقتصادی بسیار دشواری روبرو خواهند شد: در یک دنیای خودکار و هوشمند برای نیروی غیر متخصص تقاضای زیادی وجود نخواهد داشت. اما مشکلات سیاسی نگران کننده‌ای نیز در این زمینه وجود دارد.

هوش مصنوعی همین حالا هم به زندگی انسان‌ها رخنه کرده است: با جمع آوری اطلاعاتی در مورد افراد، و سپس استفاده از این اطلاعات برای کشف، پیش بینی و کنترل خواسته‌های آنها. به عنوان مثال، گزارش‌های برخی روزنامه‌ها نشان داده است که مرکز تجزیه و تحلیل کمبریج – Cambridge Analytica – همین کار را با اطلاعات موجود در فیس بوک رای دهندگان در امریکا انجام داده است.

همه کشورها صرف نظر از اینکه آیا ابرقدرت‌های فناوری هستند یا نه، اثرات انقلاب هوش مصنوعی را لمس خواهند کرد. اما به آن کشورهایی که از این مسابقه عقب مانده‌اند یک چالش جدید اضافه شده است. دولت‌ها و شرکت‌ها برای نفوذ و کنترل بر انسان باید به مقادیر بسیار زیادی از اطلاعات مربوط به رفتار واقعی انسان‌ها دسترسی داشته باشند، که این داده‌ها شاید مهم‌ترین منبع اطلاعاتی در جهان باشند. و بیشتر این داده‌ها در جهان توسط ایالات متحده، چین و شرکت‌های مستقر در این دو کشور استخراج می‌شوند.

جهان به زودی شاهد استعمار اطلاعاتی خواهد بود که طی آن اطلاعات خام از کشورهای ضعیف‌تر استخراج و در کشورهای قدرتمند پردازش می‌شود و سپس در اعمال کنترل در سراسر جهان به کار می‌رود.

اگر این روند ادامه یابد، جهان به زودی شاهد نوع جدیدی از استعمار است – استعمار اطلاعاتی – که در آن اطلاعات خام در کشورهای متعددی استخراج می‌شوند، عمدتا در مراکزی قدرتمند پردازش می‌شوند، و سپس برای اعمال کنترل در سراسر جهان استفاده می‌شوند. به عنوان مثال، غول‌های اطلاعات در سان فرانسیسکو یا شانگهای می‌توانند تمام سابقه پزشکی و خصوصی سیاستمداران و مقامات دیگر کشورها را گردآوری کرده و از آن برای نفوذ بر آنها یا دستکاری افکار عمومی در مورد این اشخاص استفاده کنند.

فراتر از آن، کسانی که این اطلاعات را کنترل می‌کنند می‌توانند نه تنها آینده اقتصادی و سیاسی جهان، بلکه آینده زندگی این دنیا را نیز تغییر دهند. هر گونه تلاش در آینده برای ایجاد تغییراتی در جسم، مغز و ذهن به ترکیبی از هوش مصنوعی و بیوتکنولوژی نیاز دارد.

نخبگان در ایالات متحده و چین که به این فناوری‌ها دسترسی دارند می‌توانند روند تکاملی هر فرد را با توجه به منافع و ارزش‌های مد خود تعیین کنند و مثلا توانایی‌هایی را که از نظر آنها مفید است، مثل نظم و انضباط و هوش مکانیکی (عادتی) را به قیمت تضعیف صفاتی مثل معنویت، که از نظر این نخبگان نالازم پنداشته می‌شود، ارتقاء دهند.

کسانی که در مسابقه نفوذ و کنترل بر انسان‌ها عقب مانده‌اند دو گزینه در پیش رو دارند: پیوستن به تیم کنترل کننده‌ها و یا وضع قوانینی برای تنظیم این نوع کنترل در کشورهای خود.

بعید است که کشورهای کوچک‌تر بتوانند به تنهایی گوگل یا بایدوی خودشان را راه بیندازند. با این حال، شاید تلاش مشترک ۲۸ عضو اتحادیه اروپا یا کشورهای آمریکای جنوبی بتواند نتیجه‌ای مثبت داشته باشد. این کشورها برای افزایش شانس خود برای انجام این کار، می‌توانند روی حوزه‌هایی که پیشتازان قبلی تاکنون نادیده گرفته‌اند، تمرکز کنند.

هم‌اکنون چنین با کاربرد هوش مصنوعی و تکنولوژی پیشرفته تشخیص چهره شهروندان خود را تحت کنترل دارد و آن‌ها را برحسب رفتار و عاداتشان درجه‌بندی می‌کند.

تا به حال توسعه هوش مصنوعی بر روی سیستم‌هایی متمرکز شده که شرکت‌ها و دولت‌ها را قادر می‌سازد تا بر روی افراد نظارت داشته باشند. با این حال، جهان نیاز به سیستم‌های مخالف نیز دارد: راه‌هایی برای نظارت افراد بر شرکت‌ها و دولت‌ها. برای مثال، با ساخت ابزارهای پیشرفته برای مبارزه با فساد و یا هدف قرار دادن خشونت پلیس، عقب ماندگان این رقابت می‌توانند جایگاه مناسبی برای خودشان درست کرده و ابرقدرت‌های اطلاعات را کنترل کنند.

 و در ضمن کشورهایی که نمی‌توانند با پیشتازان عرصه هوش مصنوعی رقابت کنند، حداقل می‌توانند مسابقه را تعدیل کنند. آن‌ها می‌توانند دست به کار ایجاد روش‌های سختگیرانه قانونی درباره فناوری‌های خطرناک در حال ظهور، مانند سیستم‌های سلاح‌های خودکار یا ابرانسان‌های ارتقایافته بشوند.

همان طور که این کشورها قوانینی را برای محافظت از منابع طبیعی خود وضع می‌کنند، می‌توانند برای داده‌هایشان هم همین کار را انجام دهند. شرکت‌های بین‌المللی استخراج معدن باید به کشورهایی که از آنجا سنگ آهن استخراج می‌کنند مبالغی پرداخت کنند. این روش را می‌توان در مورد شرکت‌های فن آوری اطلاعات نیز به کار برد.

این امر به ویژه هنگامی که استخراج داده‌ها ممکن است به مردم آن کشور آسیب برساند مصداق پیدا می‌کند. به عنوان مثال، یک مرحله مهم در فرآیند توسعه وسایل نقلیه خودکار این است که آنها بتوانند در شرایط زندگی واقعی حرکت کنند، اطلاعات موجود در حوادث را جمع آوری کنند، و سپس با استفاده از این داده‌ها تکنولوژی را به کمال برسانند.

تقریبا نامحتمل است که کشورهای ضعیف‌تر جهان بتوانند از استعمار اطلاعات جلوگیری کنند. اما باید تلاش خود را به خرج دهند.

کشورهای توسعه یافته محدودیت‌های شدیدی برای این وسایل نقلیه خودکار قرار داده‌اند – که احتمالا تا زمانی که ایمنی این وسایل نقلیه تضمین بشود ادامه خواهد داشت – پس ممکن است شرکت‌ها وسوسه بشوند که در کشورهای در حال توسعه که قوانین ملایم‌تری دارند و در صورت وقوع حادثه مرگبار برخورد شدیدی نمی‌کنند به انجام آزمایشات تکنولوژی‌شان دست بزنند.

مشابه این وضعیت می‌تواند در مورد داده‌های پزشکی اتفاق بیفتد که می‌توان این اطلاعات را با هزینه‌ای کم در کشورهای در حال توسعه که قوانین حفظ حریم خصوصی ضعیفی دارند به دست آورد و سپس آنها را در مرکز هوش مصنوعی که بیشترین مزایای تحقیقاتی را از این اطلاعات کسب می‌کند نگهداری و پردازش کرد.

کشورهایی که داده‌های مهم را فراهم می‌کنند برای اینکه انتظار بازدهی بهتری داشته باشند باید زودتر دست به کار بشوند. به عنوان مثال، آن‌ها می‌توانند یک سازمان کشورهای صادر کننده اطلاعات ایجاد کنند که بتوانند بر آمازون و علی‌بابا اعمال قدرت و فشار داشته باشند. و اگر شروع به اشتراک گذاری منافع داده‌های جمع آوری شده کنند، می‌توانند در واقع ابزارهایی برای مقابله با معضلات اقتصادی در زمانی که ربات‌ها جایگزین کارگران نساجی و رانندگان کامیون می‌شوند داشته باشند.

تقریبا نامحتمل است که کشورهای ضعیف‌تر جهان بتوانند از استعمار اطلاعات جلوگیری کنند. اما باید تلاش خود را به خرج دهند. اگر همچون کبک سرشان را در زمین فرو ببرند و فقط بر مشکلات امروزی خود تمرکز کنند و مسابقه هوش مصنوعی را نادیده بگیرند، سرنوشت آنها در غیابشان تعیین می‌شود.

________________
منبع: فارن پالیسی
یووال نوح هراری مورخ و نویسنده «انسان خردمند، انسان خداگونه» و «بیست و یک درس برای قرن بیست و یکم» است.

 

شریک یې کړی:
د نن ورځې خبرونه
تحلیلونه او خبري راپورونه

خبرونه د ټولنیزو شبکو سایټونو سلام دوستانو تعقیبوي:

فیسبوک

توییتر

تلگرام