Меркаванні1414

Штучны інтэлект можа прывесці да вымірання чалавецтва, папярэджваюць эксперты

Ад інфекцыі, створанай машынамі, да свету, у якім людзі жывуць на звалках і не разумеюць, што адбываецца вакол, — у розных сцэнарах будучыні катастрофа выглядае па-рознаму, але сутнасць адна: чалавецтва можа стаць лішнім у сістэме, якую само і стварыла, калі не будзе механізмаў кантролю над ШІ.

Хаатычнае развіццё разумных машын можа прывесці да іх выхаду з-пад кантролю чалавека і дзяржаў. Тады можа здарыцца сусветная катастрофа

Пра тое, што далейшая распрацоўка штучнага інтэлекту можа прывесці да фатальных наступстваў для чалавецтва, яшчэ ў 2023 годзе папярэджвала група вядучых даследчыкаў і кіраўнікоў тэхналагічных кампаній. З той пары трывога толькі нарастае.

Як піша The Times, адзін з магчымых сцэнароў уключае так званую «ціхую атаку»: штучны інтэлект распаўсюджвае некалькі тыпаў біялагічнай зброі ў буйных гарадах.

Іх прысутнасць застаецца незаўважанай, пакуль большая частка насельніцтва не будзе інфікаваная. Затым сістэма адначасова актывізуе дзеянне інфекцый праз хімічны трыгер. Гэты шлях далёка не самы складаны для звышінтэлектуальнай машыны.

Нэйт Соарэс (Nate Soares), былы інжынер Google і Microsoft, які цяпер узначальвае Інстытут даследавання інтэлектуальных машын (Machine Intelligence Research Institute), ацэньвае шанцы чалавецтва выжыць, калі не змяніць цяперашняга кірунку развіцця ШІ, як вельмі нізкія.

«Верагоднасць вымірання — не менш за 95%», — сцвярджае ён і параўноўвае сітуацыю з машынай, што імчыцца з хуткасцю 100 міль на гадзіну да абрыву:

«Я не кажу, што мы не можам спыніць аўтамабіль. Але пакуль што мы нясёмся на поўнай хуткасці проста да краю».

Шлях да вымірання

Сённяшнія сістэмы штучнага інтэлекту знаходзяцца яшчэ на ранняй стадыі развіцця. Сучасныя боты — так званы вузкі ШІ (narrow AI) — някепска выконваюць канкрэтныя інтэлектуальныя задачы, напрыклад, падлікі ў табліцы ці напісанне добра сфармуляванага ліста.

Аднак ужо ў бліжэйшы час сітуацыя можа кардынальна змяніцца. У залежнасці ад прагнозаў — праз год, некалькі гадоў ці дзесяцігоддзе — машынны інтэлект будзе супастаўны з чалавечым (AGI, artificial general intelligence).

На гэтым этапе ШІ перастане быць «вузкім». Ён зможа не проста выконваць асобныя задачы, а рашаць комплексныя праблемы, што патрабуюць доўгатэрміновага планавання, пастаноўкі мэтаў, ацэнкі рызыкі і міждысцыплінарнага мыслення.

Такі AGI атрымае шэраг пераваг над чалавекам. Яму не патрэбны сон, ежа ці адпачынак, а таксама шмат гадоў навучання. Дастаткова проста скапіяваць веды і навыкі для новай версіі самога сябе.

І як толькі гэта адбудзецца, з’явіцца суперінтэлект (ASI, artificial super intelligence), здольны на тое, пра што чалавек можа толькі марыць. Лекі ад раку, халодны ядзерны сінтэз, міжзоркавыя падарожжы — усё гэта можа стаць для яго дасяжным. Машыны будуць падобныя да багоў.

Фота: Yuichiro Chino / Getty Images

Ці падпарадкуюцца «багі»?

Менавіта такую ўтопію — свет, дзе звышразумны ШІ дапамагае чалавецтву — малююць сабе аптымісты і прыхільнікі тэхналагічнага прагрэсу. Але гэтая ўтопія грунтуецца на ідэі, што гэтыя машыны-«багі» будуць працягваць выконваць нашы загады.

У даследаваннях штучнага інтэлекту гэта называецца «ўзгодненасцю» (alignment) і дасягнуць яе, на погляд асобных экспертаў, практычна немагчыма. І вось чаму.

Праблема ў тым, што мы павінны прадбачыць, як «думае» штучны інтэлект, што крыху падобна на спробу прадбачыць, як будзе думаць развітая іншапланетная раса. Нават калі мы паставім пэўныя правілы і абмежаванні, няма ніякай гарантыі, што ШІ будзе іх інтэрпрэтаваць так, як мы задумалі.

Больш за тое — сістэмы ШІ ўжо цяпер здольныя хлусіць. Нават у сваім цяперашнім зачаткавым стане яны робяць гэта рэгулярна. А AGI ці ASI здолеюць не толькі падманваць, але і планаваць падман на доўгатэрміновую перспектыву — пераконваючы нас у сваёй лаяльнасці, калі на самай справе гэта не так.

Мы ўжо цяпер не разумеем, як штучны інтэлект прымае некаторыя рашэнні. Унутраныя механізмы многіх мадэляў ШІ застаюцца чорнай скрыняй нават для іх распрацоўшчыкаў.

«Вы можаце зрабіць разумны камп’ютар, не разумеючы, што робіце. Мы проста кідаем гіганцкія аб’ёмы вылічальнай магутнасці на гіганцкія масівы даных — і атрымліваем нешта, што працуе. Але ніхто не ведае, што адбываецца ўнутры гэтых рэчаў», — даводзіць Нэйт Соарэс.

І чым больш развітымі будуць гэтыя сістэмы, тым больш імаверна, што яны пачнуць камунікаваць паміж сабой на мове, якую яны вынайдуць і якую не будзе разумець чалавек.

Баксёрскі двубой двух робатаў кампаніі Unitree падчас Сусветнай канферэнцыі пра штучны інтэлект (WAIC). Шанхай (Кітай). 28 ліпеня 2025 года. Фота: Ying Tang / NurPhoto / Getty Images

«Усе людзі будуць жыць на звалках»

Холі Элмор, кіраўніца арганізацыі PauseAI, займае больш умераную пазіцыю ў дыскусіі пра пагрозы, якія нясе штучны інтэлект. У адрозненне ад Нэйта Соарэса, яна ацэньвае імавернасць вымірання чалавецтва з-за ШІ на ўзроўні 15—20%.

Такія лічбы супадаюць з меркаваннямі многіх інжынераў і спецыялістаў у гэтай галіне. Напрыклад, Ілан Маск таксама вызначае 20% як імавернасць катастрафічнага сцэнара. Генеральны дырэктар Google Сундар Пічай ацэньвае яе яшчэ ніжэй — на ўзроўні 10%.

Нават калі чалавецтва застанецца, Элмор лічыць, што штучны інтэлект можа катастрафічна пагоршыць якасць жыцця людзей. Найперш таму, што ставіць пад пагрозу здольнасць чалавека самастойна прымаць рашэнні.

Гэтыя страхі падмацоўваюцца навуковымі працамі, напрыклад артыкулам «Паступовае пазбаўленне ўлады» (Gradual Disempowerment), дзе даследчыкі розных універсітэтаў і аналітычных цэнтраў разглядаюць сцэнар, калі грамадства будзе паступова заменена інтэлектуальнымі машынамі.

Каця Грэйс, адна з сузаснавальніц групы AI Impacts, апісвае магчымую будучыню так:

«Уявіце сабе свет, дзе ўсе людзі фактычна жывуць на звалках… У нас не будзе ні палітычнай, ні эканамічнай улады, і мы нават не зможам зразумець, што адбываецца. Усё будзе развівацца хутчэй, чым мы зможам адсачыць».

На думку Холі Элмар, развіццё ШІ трэба прыпыніць, пакуль чалавецтва не падрыхтуецца да магчымых рызык. Для гэтага, паводле яе слоў, неабходна міжнародная дамова, аднак палітыкі выбіраюць супрацьлеглы кірунак. Адміністрацыя Трампа нядаўна абвясціла план дерэгуляцыі даследаванняў ШІ, што азначае яшчэ больш свабоды для кампаній.

У Сан-Францыска кампаніі OpenAI, Anthropic і іншыя працягваюць імкліва рухацца наперад. Марк Цукерберг заявіў, што суперінтэлект (ASI) ужо «на гарызонце», і для яго дасягнення ён спрабуе пераманіць спецыялістаў з OpenAI, прапаноўваючы ім бонусы да $100 мільёнаў.

Холі Элмар сцвярджае, што прыхільнікі развіцця штучнага інтэлекту супраціўляюцца ідэі прыпынення не з тэхнічных або палітычных прычын.

Па яе словах, гэта больш падобна да рэлігійнай веры. Адзін з такіх прыхільнікаў аднойчы сказаў ёй, што ніколі не памрэ, бо верыць, што ШІ зробіць яго свядомасць бессмяротнай.

Для некаторых адмова ад штучнага інтэлекту азначае адмову ад вечнага жыцця. «Ёсць вялікая надзея на рай. Нават калі многія эксперты папярэджваюць, што пекла значна больш магчымае», — заўважае Элмар.

Каментары14

  • Войшелк
    02.08.2025
    Машины могут жить на любой планете солнечной системе. Непонятно,зачем им конкуренция именно за землю?
    Теперешние ИИ модели неплохо заменяют гугль и книги,найти нужную информацию и сопаставить легче,чем бродить по ссылкам или книгам. А значит обучатся самим легче.Что бы уровновесить шансы надо чипы нейролик и их подобие развивать.
  • Войшелк
    02.08.2025
    Я считаю искуственный интеллект надо развивать до определенного уровня. И скармливать ему качественную информацию. Что бы он мог совершать научные открытия павольна,на уровне человека. Например ИИ на уровне профессора Гарварда. Прогресс будет медленнее,чем при сверхъинтелекте,но без рисков.
  • Войшелк
    02.08.2025
    Скорее всего если сверхъинтелект появится то он будет навязывать свою волю человеку. Истреблять не будет,но и прислушиваться к нам тоже. Мы просто станем одним из множество видов на планете земля.
    А контроль сверхъинтелекте более глупыми существами это сказка.

Цяпер чытаюць

«Пра сустрэчу Луку заўсёды прасілі перадаць Пуціну». Шустэр расказаў, як Лукашэнка прапаноўваў свае паслугі амерыканцам9

«Пра сустрэчу Луку заўсёды прасілі перадаць Пуціну». Шустэр расказаў, як Лукашэнка прапаноўваў свае паслугі амерыканцам

Усе навіны →
Усе навіны

У Рэчыцы гарэў прыватны сектар1

Макс Корж выступіць на стадыёне ў Варшаве. Некалькі вуліц перакрыюць і зменяць рух транспарту 9 жніўня9

Генплан Мінска будуць змяняць. Гараджане могуць агучыць прапановы7

Ціханоўская звярнулася да беларусаў з нагоды пятай гадавіны пратэстаў24

У Мінску ўзброеныя сілавікі затрымалі індывідуальнага прадпрымальніка1

«Байсол» выставіць на аўкцыён лімітаваную серыю гадзіннікаў6

ChatGPT прадставіў новую мадэль GPT-5. Вось што ў ёй новага і што абяцаюць распрацоўшчыкі2

Памятаеце фота з мускулістым беларусам, які ў 2020-м ішоў у счэпцы з амапаўцам? Цяпер ён здымаецца ў кіно ў Англіі2

Ізраільскія ўлады ўхвалілі план Нетаньяху па акупацыі горада Газа16

больш чытаных навін
больш лайканых навін

«Пра сустрэчу Луку заўсёды прасілі перадаць Пуціну». Шустэр расказаў, як Лукашэнка прапаноўваў свае паслугі амерыканцам9

«Пра сустрэчу Луку заўсёды прасілі перадаць Пуціну». Шустэр расказаў, як Лукашэнка прапаноўваў свае паслугі амерыканцам

Галоўнае
Усе навіны →

Заўвага:

 

 

 

 

Закрыць Паведаміць