Вештачката интелигенција веќе напредува со загрижувачко темпо. Што ако не притискаме на сопирачките? Експертите објаснуваат што ги држи будни ноќе, пишува Гардијан.
Но, како, точно, вештачката интелигенција би можела да не уништи? Пет водечки истражувачи шпекулираат за тоа што може да тргне наопаку.
1. „Ако станеме помалку интелигентни видови, треба да очекуваме да бидеме избришани“
Многупати досега се случило видовите да бидат избришани од други попаметни. Ние луѓето веќе избришавме значителен дел од сите видови на Земјата. Тоа е она што треба да очекувате да се случи како помалку интелигентен вид – што е она што веројатно ќе станеме, со оглед на стапката на напредок на вештачката интелигенција. Тешкото е што видот што ќе биде уништен честопати нема поим зошто и како.
2. „Штетите што веќе ги предизвикува вештачката интелигенција се нивен тип на катастрофа“
Најлошото сценарио е да не успееме да го нарушиме статус квото, во кое многу моќни компании развиваат и распоредуваат вештачка интелигенција на невидливи и нејасни начини. Бидејќи вештачката интелигенција станува сè поспособна, а шпекулативните стравови за егзистенцијалните ризици во далечната иднина го привлекуваат главното внимание, треба итно да работиме за да ги разбереме, спречиме и поправиме денешните штети. Овие штети се појавуваат секој ден, при што моќната алгоритамска технологија се користи за да ги посредува нашите односи меѓу себе и меѓу нас и нашите институции. Земете го како пример обезбедувањето социјални бенефиции: некои влади применуваат алгоритми со цел да се искорени измамата. Во многу случаи, ова значи „машина за сомнеж“, каде што владите прават неверојатно големи грешки што луѓето се борат да ги разберат или да ги оспорат. Пристрасност, обично против луѓето кои се сиромашни или маргинализирани, се појавуваат во многу делови од процесот, вклучително и во податоците за обуката и начинот на кој се применува моделот, што резултира со дискриминаторски исходи.
3. „Може да не сака мртви, но веројатно ќе сака и да прави работи што не убиваат како несакан ефект“
Многу е полесно да се предвиди каде ќе завршиме отколку како ќе стигнеме таму. Онаму каде што завршуваме е тоа што имаме нешто многу попаметно од нас што особено не сака да бидеме околу нас. Ако е многу попаметен од нас, тогаш може да добие повеќе од што сака. Прво, сака да не умреме пред да изградиме повеќе суперинтелигенции кои би можеле да се натпреваруваат со него. Второ, веројатно ќе сака да прави работи што нè убиваат како несакан ефект, како што е изградбата на толку многу електрани кои испуштаат нуклеарна фузија – бидејќи има многу водород во океаните.
4. „Ако системите со вештачка интелигенција сакаа да ги истуркаат луѓето, тие ќе имаат многу лостови за повлекување“
Трендот веројатно ќе биде кон тоа моделите да преземаат сè поотворени задачи во име на луѓето, делувајќи како наши агенти во светот. Кулминацијата на ова е она што го наведов како „режим на застареност“: за која било задача што можеби сакате да ја завршите, повеќе би сакале да прашате систем за вештачка интелигенција отколку да прашате човек, бидејќи тие се поевтини, тие работат побрзо и можеби се попаметни. Во таа крајна игра, луѓето кои не се потпираат на вештачката интелигенција се неконкурентни. Вашата компанија нема да се натпреварува во пазарната економија ако сите други користат носители на одлуки со вештачка интелигенција, а вие се обидувате да користите само луѓе. Вашата земја нема да добие војна ако другите земји користат генерали за вештачка интелигенција и стратези за вештачка интелигенција, а вие се обидувате да се справите со луѓето. Ако имаме таков вид на потпирање, би можеле брзо да завршиме во положбата на децата денес: светот е добар за некои деца, а лош за други деца, но тоа најмногу се одредува од тоа дали тие имаат или не возрасни кои дејствуваат во нивни интереси. Во тој свет, станува полесно да се замисли дека, ако системите со вештачка интелигенција сакаат да соработуваат еден со друг за да ги истиснат луѓето од сликата, тие ќе имаат многу лостови за повлекување: тие ги водат полициските сили, војската, најголемите компании; тие ја измислуваат технологијата и развиваат политика.
5. „Најлесно сценарио да се замисли е дека некое лице или организација користи вештачка интелигенција за да направи хаос“
Голем дел од истражувачите мислат дека е многу веродостојно дека за 10 години ќе имаме машини кои се исто толку интелигентни или поинтелигентни од луѓето. Тие машини не мора да бидат добри како нас во сè; доволно е да бидат добри на места каде што би можеле да бидат опасни. Најлесно е да се замисли едно лице или организација намерно да користи вештачка интелигенција за да направи хаос. За да дадеме пример за тоа што би можел да направи систем со вештачка интелигенција што би убивал милијарди луѓе, постојат компании од кои можете да нарачате на Интернет за да синтетизираат биолошки материјал или хемикалии. Немаме капацитет да дизајнираме нешто навистина злобно, но многу е веродостојно дека, за една деценија, ќе биде можно да се дизајнираат работи како ова. Ова сценарио дури не бара вештачката интелигенција да биде автономна. Другиот вид на сценарио е местото каде што вештачката интелигенција развива свои цели. Има повеќе од една деценија истражување во обидот да се разбере како тоа може да се случи. Интуицијата е дека, дури и ако човекот попушти цели како што се: „Не им штети на луѓето“, нешто секогаш тргнува наопаку. Не е јасно дали тие би ја разбрале таа команда на ист начин како ние, на пример. Можеби тоа би го сфатиле како: „Не повредувајте физички на луѓето“. Но, тие би можеле да ни наштетат на многу други начини. Која и да ја дадете целта, постои природна тенденција да се појават некои средни цели. На пример, ако прашате нешто од системот за вештачка интелигенција, за да го постигнете тоа, тој треба да опстане доволно долго. Сега, има инстинкт за преживување. Кога создаваме ентитет што има инстинкт за преживување, тоа е како да сме создале нов вид. Штом овие системи со вештачка интелигенција ќе имаат инстинкт за преживување, тие може да прават работи што можат да бидат опасни за нас.