Штучны інтэлект можа прывесці да вымірання чалавецтва, папярэджваюць эксперты
Ад інфекцыі, створанай машынамі, да свету, у якім людзі жывуць на звалках і не разумеюць, што адбываецца вакол, — у розных сцэнарах будучыні катастрофа выглядае па-рознаму, але сутнасць адна: чалавецтва можа стаць лішнім у сістэме, якую само і стварыла, калі не будзе механізмаў кантролю над ШІ.

Пра тое, што далейшая распрацоўка штучнага інтэлекту можа прывесці да фатальных наступстваў для чалавецтва, яшчэ ў 2023 годзе папярэджвала група вядучых даследчыкаў і кіраўнікоў тэхналагічных кампаній. З той пары трывога толькі нарастае.
Як піша The Times, адзін з магчымых сцэнароў уключае так званую «ціхую атаку»: штучны інтэлект распаўсюджвае некалькі тыпаў біялагічнай зброі ў буйных гарадах.
Іх прысутнасць застаецца незаўважанай, пакуль большая частка насельніцтва не будзе інфікаваная. Затым сістэма адначасова актывізуе дзеянне інфекцый праз хімічны трыгер. Гэты шлях далёка не самы складаны для звышінтэлектуальнай машыны.
Нэйт Соарэс (Nate Soares), былы інжынер Google і Microsoft, які цяпер узначальвае Інстытут даследавання інтэлектуальных машын (Machine Intelligence Research Institute), ацэньвае шанцы чалавецтва выжыць, калі не змяніць цяперашняга кірунку развіцця ШІ, як вельмі нізкія.
«Верагоднасць вымірання — не менш за 95%», — сцвярджае ён і параўноўвае сітуацыю з машынай, што імчыцца з хуткасцю 100 міль на гадзіну да абрыву:
«Я не кажу, што мы не можам спыніць аўтамабіль. Але пакуль што мы нясёмся на поўнай хуткасці проста да краю».
Шлях да вымірання
Сённяшнія сістэмы штучнага інтэлекту знаходзяцца яшчэ на ранняй стадыі развіцця. Сучасныя боты — так званы вузкі ШІ (narrow AI) — някепска выконваюць канкрэтныя інтэлектуальныя задачы, напрыклад, падлікі ў табліцы ці напісанне добра сфармуляванага ліста.
Аднак ужо ў бліжэйшы час сітуацыя можа кардынальна змяніцца. У залежнасці ад прагнозаў — праз год, некалькі гадоў ці дзесяцігоддзе — машынны інтэлект будзе супастаўны з чалавечым (AGI, artificial general intelligence).
На гэтым этапе ШІ перастане быць «вузкім». Ён зможа не проста выконваць асобныя задачы, а рашаць комплексныя праблемы, што патрабуюць доўгатэрміновага планавання, пастаноўкі мэтаў, ацэнкі рызыкі і міждысцыплінарнага мыслення.
Такі AGI атрымае шэраг пераваг над чалавекам. Яму не патрэбны сон, ежа ці адпачынак, а таксама шмат гадоў навучання. Дастаткова проста скапіяваць веды і навыкі для новай версіі самога сябе.
І як толькі гэта адбудзецца, з’явіцца суперінтэлект (ASI, artificial super intelligence), здольны на тое, пра што чалавек можа толькі марыць. Лекі ад раку, халодны ядзерны сінтэз, міжзоркавыя падарожжы — усё гэта можа стаць для яго дасяжным. Машыны будуць падобныя да багоў.

Ці падпарадкуюцца «багі»?
Менавіта такую ўтопію — свет, дзе звышразумны ШІ дапамагае чалавецтву — малююць сабе аптымісты і прыхільнікі тэхналагічнага прагрэсу. Але гэтая ўтопія грунтуецца на ідэі, што гэтыя машыны-«багі» будуць працягваць выконваць нашы загады.
У даследаваннях штучнага інтэлекту гэта называецца «ўзгодненасцю» (alignment) і дасягнуць яе, на погляд асобных экспертаў, практычна немагчыма. І вось чаму.
Праблема ў тым, што мы павінны прадбачыць, як «думае» штучны інтэлект, што крыху падобна на спробу прадбачыць, як будзе думаць развітая іншапланетная раса. Нават калі мы паставім пэўныя правілы і абмежаванні, няма ніякай гарантыі, што ШІ будзе іх інтэрпрэтаваць так, як мы задумалі.
Больш за тое — сістэмы ШІ ўжо цяпер здольныя хлусіць. Нават у сваім цяперашнім зачаткавым стане яны робяць гэта рэгулярна. А AGI ці ASI здолеюць не толькі падманваць, але і планаваць падман на доўгатэрміновую перспектыву — пераконваючы нас у сваёй лаяльнасці, калі на самай справе гэта не так.
Мы ўжо цяпер не разумеем, як штучны інтэлект прымае некаторыя рашэнні. Унутраныя механізмы многіх мадэляў ШІ застаюцца чорнай скрыняй нават для іх распрацоўшчыкаў.
«Вы можаце зрабіць разумны камп’ютар, не разумеючы, што робіце. Мы проста кідаем гіганцкія аб’ёмы вылічальнай магутнасці на гіганцкія масівы даных — і атрымліваем нешта, што працуе. Але ніхто не ведае, што адбываецца ўнутры гэтых рэчаў», — даводзіць Нэйт Соарэс.
І чым больш развітымі будуць гэтыя сістэмы, тым больш імаверна, што яны пачнуць камунікаваць паміж сабой на мове, якую яны вынайдуць і якую не будзе разумець чалавек.

«Усе людзі будуць жыць на звалках»
Холі Элмор, кіраўніца арганізацыі PauseAI, займае больш умераную пазіцыю ў дыскусіі пра пагрозы, якія нясе штучны інтэлект. У адрозненне ад Нэйта Соарэса, яна ацэньвае імавернасць вымірання чалавецтва з-за ШІ на ўзроўні 15—20%.
Такія лічбы супадаюць з меркаваннямі многіх інжынераў і спецыялістаў у гэтай галіне. Напрыклад, Ілан Маск таксама вызначае 20% як імавернасць катастрафічнага сцэнара. Генеральны дырэктар Google Сундар Пічай ацэньвае яе яшчэ ніжэй — на ўзроўні 10%.
Нават калі чалавецтва застанецца, Элмор лічыць, што штучны інтэлект можа катастрафічна пагоршыць якасць жыцця людзей. Найперш таму, што ставіць пад пагрозу здольнасць чалавека самастойна прымаць рашэнні.
Гэтыя страхі падмацоўваюцца навуковымі працамі, напрыклад артыкулам «Паступовае пазбаўленне ўлады» (Gradual Disempowerment), дзе даследчыкі розных універсітэтаў і аналітычных цэнтраў разглядаюць сцэнар, калі грамадства будзе паступова заменена інтэлектуальнымі машынамі.
Каця Грэйс, адна з сузаснавальніц групы AI Impacts, апісвае магчымую будучыню так:
«Уявіце сабе свет, дзе ўсе людзі фактычна жывуць на звалках… У нас не будзе ні палітычнай, ні эканамічнай улады, і мы нават не зможам зразумець, што адбываецца. Усё будзе развівацца хутчэй, чым мы зможам адсачыць».
На думку Холі Элмар, развіццё ШІ трэба прыпыніць, пакуль чалавецтва не падрыхтуецца да магчымых рызык. Для гэтага, паводле яе слоў, неабходна міжнародная дамова, аднак палітыкі выбіраюць супрацьлеглы кірунак. Адміністрацыя Трампа нядаўна абвясціла план дерэгуляцыі даследаванняў ШІ, што азначае яшчэ больш свабоды для кампаній.
У Сан-Францыска кампаніі OpenAI, Anthropic і іншыя працягваюць імкліва рухацца наперад. Марк Цукерберг заявіў, што суперінтэлект (ASI) ужо «на гарызонце», і для яго дасягнення ён спрабуе пераманіць спецыялістаў з OpenAI, прапаноўваючы ім бонусы да $100 мільёнаў.
Холі Элмар сцвярджае, што прыхільнікі развіцця штучнага інтэлекту супраціўляюцца ідэі прыпынення не з тэхнічных або палітычных прычын.
Па яе словах, гэта больш падобна да рэлігійнай веры. Адзін з такіх прыхільнікаў аднойчы сказаў ёй, што ніколі не памрэ, бо верыць, што ШІ зробіць яго свядомасць бессмяротнай.
Для некаторых адмова ад штучнага інтэлекту азначае адмову ад вечнага жыцця. «Ёсць вялікая надзея на рай. Нават калі многія эксперты папярэджваюць, што пекла значна больш магчымае», — заўважае Элмар.
Каментары
Теперешние ИИ модели неплохо заменяют гугль и книги,найти нужную информацию и сопаставить легче,чем бродить по ссылкам или книгам. А значит обучатся самим легче.Что бы уровновесить шансы надо чипы нейролик и их подобие развивать.
А контроль сверхъинтелекте более глупыми существами это сказка.