مجله اینترنتی انعکاس
مطالب جذاب وخواندنی وب

تکنولوژی شیطانی در صدد آسیب رساندن به انسان‌ها

آیا تکنولوژی می‌تواند به زندگی بشر آسیب برساند؟ در ادامه به بررسی شواهدی می پردازیم که در آن‌ها تکنولوژی شیطانی در صدد آسیب رساندن به انسان‌ها و یا نسل کشی آن‌ها برآمده است.

گجت‌نیوز: آیا تکنولوژی می‌تواند به زندگی بشر آسیب برساند؟ در ادامه به بررسی شواهدی می پردازیم که در آن‌ها تکنولوژی شیطانی در صدد آسیب رساندن به انسان‌ها و یا نسل کشی آن‌ها برآمده است.

ربات‌های شیطانی، اشعه‌های مرگبار و هیولاهایی که ژنتیک آن‌ها دستکاری شده است تنها بخشی از تجسم فیلم‌های علمی تخیلی از اثرات نابودگر تکنولوژی در زندگی بشر است. این دسته فیلم‌ها، سال‌هاست که نسبت به پیشرفت بیش از حد تکنولوژی و غلبه نهایی آن به انسان‌ها هشدار می‌دهند.

با این وجود، در واقعیت، تکنولوژی باید زندگی بشر را ساده‌تر کند. با هر اختراع تکنولوژیک، امور روزمره زندگی انسان‌ها، با سادگی بیشتری انجام می‌شود. مثلا اختراع هواپیما دسترسی سریع انسان به تقریبا تمامی نقاط کره زمین را ممکن کرد.‌ همچنین اختراع اینترنت باعث اشتراک گذاری سریع اطلاعات و ارتباط کاربران در سرتاسر کره زمین با یکدیگر شد. علاوه بر این، اختراع جی پی اس نیز بشر را از حمل اطلس‌ها و نقشه‌های بزرگ و دست و پا گیر بی نیاز کرد و سفر را برای انسان بسیار ساده‌تر ساخت.

با این حال، این، همه ماجرا نیست! گاهی اوقات بروز یک مشکل که می‌تواند خواسته یا ناخواسته باشد، تکنولوژی را به یک شیطان واقعی تبدیل می‌کند. در این شرایط، تکنولوژی می‌تواند دقیقا نظیر آنچه در فیلم‌های علمی تخیلی دیدیم، ترسناک و رعب انگیز باشد و حتی جان انسان را به طور مستقیم تهدید کند.

در ادامه این متن به بررسی تعدادی از رویدادهای شیطانی متاثر از تکنولوژی می‌پردازیم که در آن‌ها محصولات تکنولوژیک به طور مستقیم اقدام به تهدید جان بشریت کردند! با گجت نیوز همراه باشید.

درخواست الکسا از یک کودک برای دست زدن به برق!

alexa-tells-a-kid-to-electrocute-themselves-1648759618-620x348

پاندمی کرونا باعث شد بسیاری از ما زمان زیادی را در خانه صرف کنیم. این امر برای یک خانواده به معنای سرگرم کردن فرزندان در خانه است. این کار در پاره ای اوقات از طریق فشردن کلید دستیار خانگی و کمک گرفتن از او امکان پذیر می‌شود.

در ماه دسامبر ۲۰۲۱، مادری به همراه دختر ده ساله اش از الکسا خواستند که چالشی را برای گذراندن وقت پیش روی آن‌ها قرار دهد. اما آیا الکسا از آن‌ها خواست که حروف الفبا را برعکس بگویند یا بر روی سر خود بایستند؟ خیر! در عوض او از آن‌ها خواست که یک شارژر را به صورت نصفه درون پریز برق فرو کنند و یک سکه را به نیمه دیگر وصل کنند! خوشبختانه مادر به اندازه کافی هوشیار بود که مانع از اجرایی شدن این درخواست شیطانی الکسا شود.

دستیارهای مجازی عموما پاسخ سوالات کاربر را با جستجو در میان پاسخ‌های پرطرفدار در اینترنت ارائه می‌کنند و نتیجه را با صدایی دوستانه یا به صورت یک متن به کاربر ارائه می‌‌دهند. متاسفانه این امر در پاره ای اوقات می‌تواند به نتایجی اسفناک منجر شود! آمازون البته خیلی سریع دست به کار شد و با رفع این ایراد، مانع رخ دادن اتفاقاتی مشابه در آینده شد.

کشته شدن انسان‌ها توسط ربات‌ها

robots-have-killed-people-1648759618-620x348

زمانی که بحث ربات‌های قاتل پیش می‌آید، ذهن همه ما به سمت نمونه‌های موجود در فیلم‌های “نابودگر” یا “ماتریکس” هدایت می‌شود و کمتر کسی یک ربات کارگر در کارخانه را تصور می‌کند! با این حال، چیزی که در واقعیت اتفاق می‌افتد، شاید عجیب‌تر از تمام فیلم‌های علمی تخیلی باشد که تا به حال دیده‌ایم!

رابرت ویلیامز کارگری در کمپانی فورد بود که در کنار یک ربات اتوماتیک در بخش تولید کار می‌کرد. وی در تاریخ ۲۵ ژانویه ۱۹۷۹ نخستین قربانی همکاری بشر با ربات‌ها نام گرفت. وظیفه این ربات یک تنی، انتقال وسایل از غلطک به سایر نقاط بود. بنا به اطلاعات ثبت شده در کتاب رکوردهای گینس، یک روز ویلیامز متوجه این شد که عملکرد ربات همکارش کند شده است. به همین دلیل، او تلاش کرد که خود وارد غلطک شود و قطعات را در جای خود قرار دهد. این، زمانی بود که حادثه جبران ناپذیر مورد بحث ما رخ داد و ربات با زدن ضربه ای به سر کارگر، باعث مرگ او شد.

امروزه، با قوت گرفتن نقش اتوماسیون در فعالیت‌های صنعتی، نیاز به ربات‌های هوشمند به طرز چشمگیری افزایش یافته است. به همین جهت، دانشمندان در صدد ساخت ربات‌هایی با سطح هوشمندی همتراز با انسان‌ها هستند که علاوه بر افزایش توانایی آن‌ها در انجام امور درخواستی، امنیت بیشتری نیز برای انسان‌های محیط اطرافشان ایجاد کنند.

الگوریتم‌های نژادپرستانه و پر از تبعیض جنسیتی

racist-and-sexist-algorithms-1648759618-620x348

حضور یادگیری ماشین در زندگی بشر هر روز در حال پررنگ‌تر شدن است. الگوریتم‌های پیچیده یادگیری ماشین به خوبی قادرند تصمیماتی اعم از اینکه در کدام رستوران غذا بخوریم یا چه فیلمی را تماشا کنیم را به جای انسان بگیرند.

بر اساس این توانایی‌های منحصربفرد یادگیری ماشین، کمپانی‌ها و نهادهای مختلف نیز از الگوریتم‌های یادگیری ماشین برای تصمیم گیری در خصوص افراد تحت نظارت یا پوشش خود استفاده می‌کنند. مشکل این ساز و کار دقیقا از همین جا نشأت می‌گیرد. همانند بسیاری تکنولوژی‌های دیگر، الگوریتم‌های هوش مصنوعی نیز دقیقا هم راستای خواسته سازندگان خود عمل می‌کنند. این امر باعث تاثیرگذاری داده‌های اولیه در تصمیم گیری نهایی این الگوریتم‌ها می‌شود. داده‌هایی که می‌تواند خواسته یا ناخواسته، جهت دار، نژادپرستانه و یا جنسیت محور باشد.

الگوریتم‌های تشخیص چهره مهم‌ترین مظاهر جهت‌گیری نژادی و جنسیتی در کاربردهای کنونی هستند و بعضا با رویکردی کاملا غیرمنطقی عدالت را زیر پا می‌گذارند. بر اساس تحقیقی از دانشگاه هاروارد، برخی از الگوریتم‌های تشخیص چهره در حین شناسایی خانم‌های با رنگ پوست تیره، ضریب خطایی حدود ۳۴ درصد بیشتر از شناسایی آقایان با رنگ پوست روشن‌تر دارند. این مساله می‌تواند در شناسایی افراد در موارد قضایی بسیار تاثیرگذار باشد.

مشکلاتی مشابه نیز پیش از این در تصمیم گیری‌های مرتبط با حوزه سلامت مشاهده شده بود. بر اساس گزارش مجله Nature، الگوریتمی در ایالات متحده با ضایع کردن حق بیماران سیاه پوست، سفید پوستان را در اولویت درمان برخی بیماری‌ها قرار می‌داد.

رفع این دسته مشکلات تکنولوژیک یکی از مهم‌ترین اهداف کنونی مهندسین است.

مرگ و میر بیشتر در اثر اتوماسیون

automation-leads-to-higher-mortality-rates-1648759618-620x348

با افزایش اتوماسیون و استفاده مداوم از ربات‌ها در محیط‌های کاری، آسیب فیزیکی یا مرگ مستقیم کارگران به دست ربات‌ها تنها مساله نگران کننده نیست. چراکه نتایج تحقیقات اخیر حاکی از تاثیر غیرمستقیم اتوماسیون بر نرخ مرگ و میر افراد در محیط‌های مرتبط است.

تحقیقات انجام شده در این زمینه، رابطه ای را بین نرخ اتوماسیون و افزایش مرگ و میر ناشی از ناراحتی به فرم خودکشی یا مصرف بیش از حد دارو به دست آورده اند. تاثیرپذیرترین افراد، میان سال‌ها هستند.

ارتباط دقیق میان اتوماسیون و افزایش نرخ مرگ و میر هنوز مشخص نیست. اما بسیاری صاحب نظران، کاهش یا قطع درآمد، قطع دسترسی به خدمات درمانی در اثر بیکار شدن و تبعات ناشی از این امر را دلیل افسردگی شدید و در نهایت خودکشی کارگران می‌دانند. البته در این مورد، ربات‌ها به طور مستقیم مقصر این مرگ و میر نیستند. با این حال، اتوماسیون بی رویه و بدون در نظر گرفتن عوارض را می‌توان دلیل مهم این امر دانست.

محققان در این رابطه به دولت‌ها توصیه می‌کنند که امنیت اجتماعی را در میان افراد جامعه افزایش دهند و با تدوین برنامه‌های مقابله با مصرف بی رویه داروها، اثر غیرمستقیم اتوماسیون بر زندگی انسان‌ها را کنترل کنند.

اثرات زیست محیطی مخرب رمزارزها

the-environmental-impact-of-crypto-1648759618-620x348

ارزهای مجازی از جمله مسائلی هستند که یک دودستگی در ابعاد جهانی را میان مردم به راه انداخته اند. عده ای کریپتوکارنسی را آینده ارزها می‌دانند که قرار است ما را از بانکداری متمرکز به شیوه کنونی رهایی بخشد. از سوی دیگر، عده ای هم ارزهای مجازی را سوداگری تازه ای می‌دانند که قرار است از امید واهی بسیاری افراد برای یک شبه ثروتمند شدن سوء استفاده کنند. این بحث با رایج شدن ان اف تی‌ها و افزایش سرسام آور محبوبیت آن‌ها، شدت بیشتری گرفته است. زمان مشخص خواهد کرد که حق به جانب کدام دسته از این افراد است. در عین حال، آنچه مشخص است، این است که ارزهای مجازی تاثیراتی مخرب بر روی محیط زیست دارند.

فروشگاه‌های ارز مجازی تمامی تراکنش‌های خود را درون بلاک چین نگهداری می‌کنند و استخراج رمزارزها هم نیازمند انجام محاسبات بسیار پیچیده ایست که صحت تراکنش‌های یادشده را تایید کند. البته مکانیزم این فرآیند پیچیده‌تر از این است. با این حال، نتیجه نهایی این است که ماین کردن ارزهای مجازی نظیر بیت کوین نیازمند توان پردازشی بسیار بالا و در نتیجه مصرف برق فوق العاده بالاست.

بر اساس تحقیقی که توسط دانشگاه کمبریج انجام شده، مزرعه‌های بیت کوین در سرتاسر دنیا هر ساله بالغ بر ۱۲۱.۳۶ تراوات ساعت برق مصرف می‌کنند. این عدد بالاتر از سرانه مصرف برق کشور آرژانتین است!

خفگی به هنگام شنا

diving-squeeze-1648759618-620x348

امروزه اگر قصد سفر به اعماق اقیانوس‌ها را داشته باشید، با استفاده از ابزارهای جدید، می‌توانید با اطمینان خاطر کامل به انجام این کار بپردازید. ابزارآلات و وسایل غواصی امروز با امکانات و امنیت فوق العاده ای که ارائه می‌دهند، باعث لذت بردن همه افراد، حتی غواصان آماتور، از شگفتی‌های اعماق دریا می‌شوند. با این حال، این دستگاه‌های ایمن، بر پایه تعدادی از اختراعات پیشین بنا شده اند. اختراعاتی که برخی از آن‌ها به نتایج هولناکی منجر شدند!

پیش از اختراع دستگاه‌های غواصی مدرن، افرادی که قصد اکتشاف در اعماق دریاها برای مدت زمان‌های طولانی را داشتند، می‌بایست از کلاه‌های غواصی و لوله تنفسی که در سطح آب قرار می‌گرفت استفاده می‌کردند. این لوله‌ها در عمل امکان تنفس دائمی را برای غواصان فراهم می‌کردند. با این حال، افراد بسیاری در حین استفاده از این دستگاه‌های غواصی به طرز دردناکی کشته شدند.

به گزارش مجله Dive Training، کلاه‌های غواصی اولیه از شیرهای یک‌طرفه بر روی لوله‌های هوا استفاده نمی‌کردند. در یکی از سفرهای اکتشافی زیر آب در سال 1839 لوله تنفسی غواص آسیب دید و این امر باعث رخ دادن اتفاقی شد که با نام “فشار غواص” شناخته می‌شود. در این پدیده، آسیب دیدن لوله تنفسی، باعث می‌شود که فشار اطراف غواص تمام هوای درون لوله را به سمت بالا هدایت کند. در نتیجه این تغییر فشار، غواص می‌تواند متحمل آسیب شدید و خونریزی شود. البته در این مورد خاص، غواص مورد بحث به طرز معجزه آسایی زنده ماند.

در شرایط وخیم‌تر، تغییر فشار می‌توانست باعث از بین رفتن لایه پوستی غواص و کشیده شدن اعضای بدن او به درون کلاه غواصی شود. پدیده ای که بدون هیچ حرف و حدیثی مرگی بسیار سریع و دردناک را برای او به همراه داشت.

آغاز تقریبی یک جنگ توسط کامپیوترها

when-computers-almost-started-a-war-1648759618-620x348

در خلال جنگ سرد، دولت ایالات متحده علاقه بسیاری به سیستم‌های هشدار موشک نشان داد. این سیستم‌ها باعث ایجاد یک آمادگی نسبی در این کشور در صورت حمله کشوری ثانویه می‌شدند.

به همین جهت، امریکایی‌ها اقدام به ساخت این سامانه هشدار کردند و آموزش آن را برای روزی که امیدوار بودند هرگز از راه نرسد، آغاز کردند! در روز نهم نوامبر سال ۱۹۷۹، زیگینیو برزینسکی، مشاور امنیت ملی ایالات متحده تماسی را در ساعت ۳ صبح مبنی بر شناسایی ۲۵۰ موشک که از سوی اتحاد جماهیر شوروی شلیک شده بودند، دریافت کرد. کمی بعد، با دریافت تماسی مبنی بر افزایش تعداد موشک‌ها به ۲۲۰۰ عدد، شرایط بحرانی‌تر هم شد.

در شرایطی که برزینسکی در شرف تماس به رییس جمهور و اطلاع رسانی به او بود، تماس سومی دریافت کرد که از اشتباه بودن هشدارهای قبلی حکایت می‌کرد. دلیل این اخطارها، بارگذاری اشتباهی نوار آموزشی سامانه در سیستم اصلی بود. این ایراد، از آن جا شناسایی شد که هیچ یک از سامانه‌های هشدار دیگر، نشانه ای از حمله موشکی نداشتند. خوشبختانه این خطای انسانی به اتفاق بدی منجر نشد. با این حال اگر اشتباه بودن این هشدارها کمی دیرتر فاش می‌شد، اکنون احتمالا شاهد آغاز جنگی بین امریکا و روسیه بودیم که می‌توانست جغرافیای کنونی زمین را دستخوش تغییر کند.

هدایت یک زن به درون دریاچه توسط سامانه جی پی اس

gps-tells-woman-to-drive-into-a-lake-1648759618-620x348

سیستم تعیین موقعیت جهانی (GPS) سامانه مکان یابی بسیار پیشرفته ایست که با بهره گیری از چندین ماهواره، محل دقیق یک سوژه را مشخص می‌کند. اختراع این سامانه پیشرفت بسیار بزرگی در زمینه جهت یابی به شمار می‌رفت که انسان‌ها را از استفاده از نقشه‌های کاغذی پیشین بی نیاز می‌ساخت و به صورت ریل تایم آپدیت می‌شد. با این حال، مثل سایر پیشرفت‌های تکنولوژیک، ردیاب‌های جی پی اس نیز هرگز بدون عیب نیستند.

گاهی اوقات با ورود به محیط‌های ناآشنا، می‌توان تشخیص داد که مسیر پیشنهاد شده توسط جی پی اس چندان منطقی نیست. در این صورت، در مناطقی که دید کافی وجود نداشته باشد، می‌توان با بهره گیری از اطلاعات ردیاب و جزئیات محیط، تصمیم بهتری را در خصوص مسیریابی گرفت. با این وجود، در مناطقی که دید کافی وجود نداشته باشد، احتمالا باید پیشنهاد جی پی اس را پذیرفت. این، اتفاقی است که در سال ۲۰۱۶ برای زنی در انتاریوی کانادا رخ داد.

بر اساس گزارش ABC News، این زن مشغول رانندگی در هوایی مه آلود در محیطی ناشناخته بود و قصد داشت برای مسیریابی از جی پی اس گوشی خود استفاده کند. مسیر پیشنهادی توسط جی پی اس، باعث ورود او به یک باتلاق در انتهای مسیری شد که باعث غرق شدن تقریبی او و خودرویش شد! البته این فرد موفق شد پیش از این که متحمل آسیب جدی شود از خودرو خارج شده و نجات پیدا کند. با این حال، خودرو و گوشی هوشمند او، هر دو به اعمال باتلاق فرو رفتند. این مورد نیز یکی از موارد جدی آسیب رسانی تکنولوژی شیطانی به انسان‌هاست.

تبدیل شدن چت بات به یک نازی

chatbot-turns-into-a-nazi-1648759618-620x348

چت بات‌ها اساسا الگوریتم‌هایی هستند که با تعامل با انسان‌ها، توانایی‌های برقرار ارتباط آن‌ها را ارتقا می‌دهند. بر کسی پوشیده نیست که این الگوریتم‌ها می‌توانند به تدریج رفتارهایی جهت دار را در برابر کاربران بروز دهند. با این وجود، مساله ای که برای چت بات Tay مایکروسافت به وجود آمد، موردی استثنایی بود.

Tay چت باتی بود که از طریق توییتر با کاربران در ارتباط بود و با رد و بدل کردن توییت‌های متوالی با آن‌ها تعامل می‌کرد. مایکروسافت این هوش مصنوعی را با هدف افزایش درک مکالماتی طراحی کرده بود و امید داشت که تعامل با کاربران توییتر بتواند آن را آموزش داده و گسترش دهد. در نهایت، این اتفاق رخ داد؛ اما نه در مسیری که مایکروسافت انتظار داشت!

در کمتر از 24 ساعت، این بات تغییر ماهیت کاملی داد و به جای مکالمات معمولی به انتشار پروپاگاندای نازی‌ها پرداخت. به گزارش Ars Technica تنها کمی پس از شروع فعالیت، این بات از کاربران می‌خواست که برخی شعارهای فاشیستی نازی‌ها را تکرار کنند. مایکروسافت سرانجام این بات را از بین برد و تمامی توییت‌های مرتبط با آن را پاک کرد. اما خاطره Tay تا ابد به عنوان نشانه ای بر یک اصل مهم در اذهان باقی خواهند ماند: ” چت بات‌ها تنها تا زمانی مفید هستند که ورودی مناسبی داشته باشند.”

وعده نابودی انسان‌ها توسط ربات هوشمند سوفیا

sophia-the-robot-says-shell-destroy-all-humans-1648759618-620x348

سوفیا، رباتیست که درون بدنه ای نیمه انسانی قرار گرفته و به عنوان اولین هوش مصنوعی شناخته می‌شود که تابعیت رسمی یک کشور را به دست می آورد. این ربات مدت زمان زیادی را صرف تعامل با انسان‌ها و پاسخ دادن به سوالات آن‌ها کرد. همان گونه که انتظار می‌رود اکثر سئوالاتی که از او پرسیده می‌شد پیرامون هوشیاری او و تعاملاتش با انسان‌ها بود.

در سال ۲۰۱۶، در خلال رویدادی که به منظور معرفی بیشتر سوفیا انجام شده بود، دیوید هانسون، رییس کمپانی هانسون رباتیکس که مسئولیت ساخت سوفیا را بر عهده داشت، به شوخی از سوفیا پرسید که آیا او تصمیم به نابودی انسان‌ها دارد یا خیر. در پاسخ به این سئوال، سوفیا عبارت ” بله! من انسان‌ها را نابود خواهم کرد.” را به کار برد. این پاسخ، جوابی نبود که هانسون انتظار شنیدنش را داشته باشد. خصوصا در برابر آن جمعیت بزرگی که برای رونمایی از سوفیا گرد هم آمده بودند.

البته پاسخ او به سایر سئوالات مشابه حاکی از تمایل او به یک زندگی آرام نظیر انسان‌های معمولی داشت. با این وجود، همین پاسخ برای رسوایی او و تیم سازنده اش کافی به نظر می‌رسید.

در مجموع به نظر می‌رسد جای نگرانی خاصی، حداقل در خصوص نابودی به دست سوفیا وجود ندارد. چراکه او در حقیقت چیزی بیشتر از یک چت بات که درون بدنه ای شبیه به انسان قرار دارد، نیست. با این حال بیایید آرزو کنیم که این پاسخ سوفیا، تنها یک شوخی بی مزه از سوی او باشد و نه تصمیمی نهایی برای پایان بخشیدن به حیات بشر!

ایراد در اتوپایلوت و خطر سقوط هواپیما

plane-takes-over-autopilot-1648759618-620x348

دوره ای که خلبان‌ها می‌بایست با ترس و اضطراب مراحل طاقت فرسای کنترل هواپیما را مو به مو دنبال می‌کردند، مدت‌هاست که سپری شده است. پیشرفت‌های تکنولوژیک حاصل شده در علوم پرواز، بار سنگین هدایت هواپیماها را تا حد زیادی از دوش خلبان‌ها برداشته است؛ به طوری که اکنون، وظیفه آن‌ها عموما زیر نظر داشتن فعالیت‌های مختلف هواپیما و اطمینان حاصل کردن از عملکرد صحیح آن‌هاست.

به طور کلی، کنترل رایانه‌ای هواپیماها، پرواز را بسیار ایمن‌تر از قبل کرده است. به خصوص با در نظر گرفتن اینکه آسمان‌ها اکنون بسیار شلوغ‌تر از قبل هستند. در عین حال، این می‌تواند به آن معنی باشد که یک اشتباه محاسباتی کوچک در سیستم هدایت رایانه ای می‌تواند به حادثه‌های جبران ناپذیری منجر شود. این اتفاقی است که در اکتبر سال 2008 برای پرواز Qantas 32 افتاد. این هواپیما 303 مسافر و 12 خدمه را از سنگاپور به پرث می‌برد.

به گزارش The Sydney Morning Herald، سیستم اتوپایلوت این هواپیما به هنگام پرواز بر روی اقیانوس هند به یکباره قطع شد و خلبان مجبور به کنترل دستی آن شد. البته این تمام ماجرا نیست و در ادامه اوضاع بسیار بدتر شد. این هواپیما به یکباره شروع به ارسال سیگنال‌هایی مبنی بر کم بودن و زیاد بودن همزمان سرعت کرد! در این شرایط، نوک هواپیما به سمت پایین متمایل شد و شتاب جاذبه درون هواپیما از 1G به منفی 0.8G تغییر کرد. در نتیجه، مسافرانی که کمربند خود را نبسته بودند، به سمت سقف هواپیما پرت شدند.

این هواپیما، صدها فوت به سمت پایین سقوط کرد تا سرانجام خلبان موفق به کنترل کامل آن و فرود اضطراری شد.

رباتی که قصد داشت انسان‌ها را در باغ وحش نگه دارد

philip-k-dick-robot-said-hed-keep-people-in-a-zoo-1648759618-620x348

فیل، روباتی که بر اساس چهره فیلیپ دیک، نویسنده مشهور، ساخته شده بود، محصول رعب انگیز دیگری بود که اظهار نظری باورنکردنی در خصوص تعامل با انسان‌ها ارائه کرد.

همانند سوفیا، فیل نیز در معنای کلمه باهوش نبود. بلکه صرفا سوالات کاربران را دریافت می‌کرد و به آن‌ها پاسخ‌هایی مناسب می‌داد. با این حال، تفاوت فیل با سوفیا این بود که پاسخ‌های او بر اساس نوشته‌های موجود در رمان‌های فیلیپ دیک ارائه می‌شد. این نخستین اشتباه طراحان این ربات بود!

در یکی از مصاحبه‌هایی که فیل با خبرنگاران داشت، در پاسخ به این سئوال که آیا در ادامه ربات‌ها بر انسان‌ها مسلط می‌شوند یا خیر، وی چنین پاسخ داد:

«تو دوست من هستی و من دوستانم را فراموش نخواهم کرد. من با تو رفتار بدی نخواهم داشت. حتی اگر من به نابودگر (Terminator) تبدیل شوم هم با تو مهربان خواهم بود. من تو را در محلی گرم و امن درون باغ وحش انسانی خود نگه خواهم داشت.»

این پاسخ فیل تا مدت‌ها به بحث مهمی میان موافقان و مخالفان گسترش استفاده از ربات‌ها تبدیل شده بود. البته با در نظر گرفتن داستان فیلم‌های نابودگر، باغ وحش انسانی می‌تواند محلی مناسب برای انسان‌ها باشد!

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.