آیا بشریت خطر انقراض خود را دست کم می گیرد؟
برای یک بار ، این پست کشف کشف شده اخیراً در یک ژورنال را توصیف نخواهد کرد. در طی بازخوانی های مختلف ، در هفته های گذشته ، برخی از قطعات پازل را برداشتم و فهمیدم که آنها کاملاً با هم جور در می آیند ، و مانند آنها یک ایده راهنما وجود دارد. این در اواخر سال 2011 در دوربان آغاز شد ، با عدم توافق بیشتر جامعه جهانی در مورد محدودیت انتشار گازهای گلخانه ای (GHG). سپس در اواخر دسامبر اعلامیه ای مبنی بر ایجاد ویروس های جهش یافته آنفلوانزای مرغی توسط محققان منتشر شد كه احتمالاً بین انسانهای آلوده با سهولت بیشتری منتقل می شود. اعلامیه ، اول از همه ، با بحث در مورد اینکه آیا انتشار روشهایی که زیست شناسان H5N1 را اصلاح کرده اند یا نه واقعاً مرتبط است ، متعاقباً با س praال عملی تر: به دنبال آن یک تروریست متوسط می تواند به راحتی به این مهم دست یابد؟
سپس اعلامیه دیگری در 12 ژانویه منتشر شد ، این مراسم آیینی تر بود ، اما با احتیاط نیز بیشتر: اعلامیه بولتن دانشمندان اتمی اعلام کرد که ساعت پایان جهان که از سال 1947 ، بطور نمادین بشریت را هشدار می دهد قدم هایی در جهت انقراض آن یا اطمینان از آن هنگامی که اقدامات لازم برای دور شدن از آن را انجام می دهد ، یک دقیقه به سمت نیمه شب به جلو آورده شد. اکنون ساعت 23:55 بعد از ظهر است و این پیشرفت عقربه بزرگ به دلیل عدم پیشرفت در محدود کردن گسترش سلاح های هسته ای و انتشار گازهای گلخانه ای توجیه شده است. در این بیانیه آمده است: "جامعه جهانی در تلاش برای جلوگیری از فاجعه به دلیل تغییرات جو زمین در نزدیکی نقطه بازگشت قرار دارد. آژانس بین المللی انرژی پیش بینی می کند که" مگر اینکه جوامع از پنج سال آینده برای ایجاد گزینه هایی برای جهان با فناوری های انرژی ساطع کننده کربن ، به آب و هوای گرم تر ، به افزایش سطح دریا ، به ناپدید شدن کشورهای جزیره و افزایش اسیدی شدن اقیانوس محکوم شده است. " بدون کنایه خاصی نیست که اطلاعات دیگری ، که مستقیماً مربوط به این اطلاعات است ، چند روز پیش منتشر شد و من آن را به عنوان ریخته گری در یکی از انتخاب های هفتگی خود دادم: هرگز ، طی 300 میلیون سال گذشته ، اقیانوس ها به اندازه امروز اسیدی نبوده اند. علی رغم اهمیت آن ، به نظر نمی رسید این خبر کسی را تحت تأثیر قرار دهد ...
در همان لحظه ای که کتابهای زیادی با موضوع "2012 ، سال پایان جهان پیش بینی شده توسط تقویم مایا" منتشر می شود (من از دیدن یک جدول کامل از آثار در FNAC با این موضوع متعجب شدم) ، مردان بازی با ترساندن خود که می داند کاملا بی معنی است ، ما دلایل واقعی نگرانی را در زیر فرش جارو می کنیم. از این رو سوالی که عنوان این پست را ایجاد می کند: آیا بشریت خطر انقراض خود را دست کم می گیرد با عدم رسیدگی به مشکلات تهدیدکننده آن یا با به خطر انداختن فناوری های کشتار جمعی بین دستان مخرب؟ من بدیهی است که پاسخ آن را ندارم و این را به همه واگذار می کنم که در مورد آن فکر کنند ، اما من می خواستم این پست را مانند سایر مصاحبه در آتلانتیک ، با فیلسوف سوئدی ، نیک بوستروم ، که در دانشگاه تدریس می کند ، بر خلاف دیگران به پایان برسانم از آکسفورد ، موسسه آینده بشریت را در آنجا هدایت می کند و در بالای این صفحه تصویر شده است.
با سابقه فیزیک ، علوم اعصاب و فلسفه علم ، نیک بستروم لزوماً مشخصات معمولی فیلسوف را آنگونه که معمولاً تصور می کنیم ندارد. او به مفهوم "خطر وجودی" بسیار کار کرده است ، به معنای یک سناریوی فاجعه که "یا منجر به نابودی کامل تمام حیات هوشمند روی زمین می شود ، یا به فلج دائمی پتانسیل توسعه آن منجر می شود". در این مصاحبه ، او علاقه ای به عواقب دور گرم شدن کره زمین ندارد ، اما ، با توجه به اینکه این قرن بیست و یکم به دلیل توسعه سریع فن آوری های جدید برای بشریت بسیار مهم است ، خطراتی که دومی در آنها ایجاد می کند بسیار خطرناک است. در آینده نزدیک برای ما: "در کوتاه مدت ،" او گفت ، "من فکر می کنم چندین پیشرفت در زمینه بیوتکنولوژی و بیولوژی مصنوعی بسیار ناامید کننده است. ما در حال دستیابی به ظرفیت ایجاد پاتوژن اصلاح شده هستیم. چندین ارگانیسم بیماریزا در دامنه عمومی وجود دارد: شما می توانید دنباله ژنتیکی ویروس آبله یا آنفولانزای اسپانیایی را از اینترنت بارگیری کنید. تا کنون ، شهروند عادی فقط نمایش گرافیکی خود را در اینترنت دارد. صفحه رایانه خود ، اما ما همچنین در حال تولید ماشین آلات کارآمدتر و سازنده DNA هستیم که می تواند یکی از این طرح های دیجیتالی را تولید و تولید کندرشته های واقعی RNA یا DNA. به زودی این ماشین ها به اندازه کافی قدرتمند هستند که می توانند این ویروس ها را از نو بسازند. بنابراین شما قبلاً نوعی خطر قابل پیش بینی دارید و اگر شروع به اصلاح این عوامل بیماری زا به روش های مختلف کنید ، می بینید مرز جدیدی خطرناک ظاهر می شود. در بلندمدت ، من فکر می کنم هوش مصنوعی ، به محض دستیابی به ظرفیت های انسانی و سپس فوق بشری ، ما را به منطقه ای با خطر عمده تبدیل خواهد کرد. انواع مختلفی از کنترل جمعیت نیز وجود دارد که مرا نگران می کند ، مواردی مانند نظارت و دستکاری روانی با مواد مخدر. "
وقتی خبرنگار از او می پرسد که چرا خطر لغزش اساسی در طول قرن یک یا دو برآورد می شود ، که بسیار زیاد است ، نیک بستروم این پاسخ را دارد: "من فکر می کنم چیزی که منجر به آن می شود این احساس است که انسان ها در حال تولید این ابزارهای بسیار قدرتمند هستند ... و این خطر وجود دارد که مشکلی پیش بیاید. اگر با سلاح های هسته ای برگردید ، متوجه می شوید که برای ساخت بمب اتمی به مواد اولیه نادر مانند اورانیوم غنی شده یا پلوتونیوم نیاز دارید ، که دستیابی به آنها بسیار دشوار است. اما فرض کنید روشی وجود دارد که به شما امکان می دهد با پخت شن و ماسه در مایکروویو یا موارد دیگر سلاح هسته ای بسازید. اگر چنین بود ، اکنون ما کجا بودیم؟ احتمالاً با کشف این کشف ، یکی از این اکتشافات را انجام دهید ، ما م در یک ظرف بزرگ پر از گلوله قرار دارد و ما یک گلوله جدید شلیک می کنیم: تاکنون گلوله های سفید و خاکستری را بیرون آورده ایم ، اما شاید دفعه بعدی یک گلوله سیاه را شلیک کنیم ، کشف این به معنای فاجعه است. در حال حاضر ، اگر دوست نداریم ، روش خوبی برای پس دادن توپ در صندوق رای نداریم. پس از انتشار این کشف ، هیچ راهی برای "لغو انتشار" آن وجود ندارد. "
نیک بستروم مطلقاً مخالف فناوری نیست: برعکس ، او یک حامی بزرگ ترانسومانیسم است. به سادگی ، او برای کنترل خود در حال تبلیغ برای ما است. کنترل فن آوری ها ، سیاره ، آینده ما زیرا انقراض انسان تنها خطری نیست که ما تهدید می کنیم. چهره دیگر خطر وجودی ، از بین رفتن کامل آزادی ها در مقیاس سیاره ای است: "می توان سناریوی دوسکوپی جهانی توتالیتر را تصور کرد. یک بار دیگر ، این احتمال وجود دارد که ما فن آوری هایی را توسعه دهیم که ظلم ستیزی را بسیار راحت تر کند. رژیم ها برای از بین بردن مخالفان یا نظارت بر جمعیت آنها برای دستیابی به یک دیکتاتوری پایدار ، به جای کسانی که در طول تاریخ دیده ایم و در نهایت سرنگونی شده اند. " جورج اورول و سال 1984 دور از دسترس نیستند.
پیر بارتلمی
منبع: http://passeurdesciences.blog.lemonde.f ... xtinction/