Стівен Гокінг: людство приречене, якщо не покине Землю

29 вересня 2015 | Автор: Арсен

Tastylia Стівен ГокінгЯкщо людство хоче вижити в довгостроковій перспективі, йому потрібно знайти спосіб залишити планету Земля. Знайомі слова? В цей раз вони прозвучали з вуст відомого астрофізика Стівена Гокінга. Можливо, у людей залишилося менше 200 років, щоб з’ясувати, як втекти з рідної планети, заявив науковець в недавньому інтерв’ю Big Think. В іншому випадку нашому виду може загрожувати вимирання.

where to buy Lyrica cream «Буде досить складно уникнути катастрофи в найближчі сто років, не кажучи вже про наступні тисячі або мільйони років, – сказав Гокінг. – Наш єдиний шанс довготривалого виживання – не залишитися на планеті Земля, а поширитися в космосі».

Людей, що застрягли на Землі, чекає ризик двох типів катастроф, вважає Гокінг. Перший тип ми можемо створити самостійно, наприклад, викликаючи кардинальну зміну клімату або створивши ядерну чи біологічну зброю. Може стерти нас з лиця Землі і ряд космічних явищ. Наприклад, астероїд, який вб’є більшу частину населення і залишить іншу частину планети непридатною для життя. Спалах гамма-променів наднової недалеко в Чумацькому Шляху теж може виявитися руйнівним для життя на Землі.

Життя на Землі також може бути під загрозою позаземних цивілізацій, про що любить говорити Гокінг. Небезпечні чужинці можуть заволодіти планетою та її ресурсами для власного використання. Для виживання нашого виду було б безпечніше мати запасний план у вигляді інших світів.

«Людській расі не варто тримати всі яйця в одному кошику, або на одній планеті. Будемо сподіватися, що ми не втратимо кошик, доки не перерозподілимо навантаження».

Днями Гокінга запитали, які недоліки людей він би змінив, а які чесноти покращив, якщо було б можливо. Він відповів: «Найбільше я б хотів поправити в людині її агресію. Вона давала перевагу при виживанні в дні печерних людей, щоб отримати більше їжі, території або партнера, з яким можна продовжити рід, але сьогодні вона може знищити нас усіх».

У листопаді Елон Маск, генеральний директор SpaceX і Tesla, попереджав, що шанс на те, що станеться щось небезпечне в результаті появи машин з штучним інтелектом, може вистрілити вже через п’ять років. Раніше він стверджував, що розвиток автономних думаючих машин кшталт «заклику демона». Виступаючи на симпозіумі AeroAstro Centennial в жовтні, Маск описав штучний інтелект як нашу найбільшу загрозу для виживання». Тоді він сказав: «Я думаю, нам варто бути дуже обережними з штучним інтелектом. Якби я міг передбачити, якою буде наша найбільша загроза для виживання, то це він. Нам потрібно бути дуже обережними з штучним інтелектом. Я все більше і більше схиляюся до того, що має бути якийсь регулятивний нагляд, можливо, на національному і міжнародному рівні, просто щоб знати, що ми не робимо дурних помилок».

«З штучним інтелектом ми викликаємо демона. Ви знаєте ці історії, в яких хлопець з пентаграмою і святою водою… він думав, що зможе контролювати демона, але ні».

Повертаємося до Гокінга. «Якість, яку я хотів би покращити – це емпатія, співчуття. Вона утримує нас у стані миру і любові». Професор також додав, що космічна гонка для людей буде «страхуванням життя» і повинна продовжуватися.

«Відправлення людей на Місяць змінило б майбутнє людської раси таким чином, про який ми поки навіть не підозрюємо, – сказав він. – Звичайно, воно не вирішить наші насущні проблеми на планеті Земля, але дозволить нам поглянути на них під іншим кутом, зсередини і зовні».

go to site Додати коментар: