Напреднал изкуствен интелект ще управлява света по-добре, отколкото хората някога сме могли

матрица

Има определени страхове, които изскачат на повърхността, когато се говори за бъдещето на изкуствения интелект (ИИ). Да кажем че основният от тези страхове е, че ИИ ще се научи да се самообучава и ще стане много по-напреднал във всичко, което ние хората можем да постигнем. В грешните ръце или дори в своите собствени, толкова напреднал алгоритъм може да се превърне в доминатор над правителствата или армиите по света, да превъплати картината на Оруел за нивата на следене, манипулация и социален контрол над обществата и може би дори да постигне тотален контрол над бойните полета с автономни смъртоносни оръжия като например бойни дронове.

Някои експерти по ИИ обаче не мислят, че тези страхове са добре обосновани. В действителност, казват те, високо напреднал ИИ може да е по-добър в управлението на света отколкото ние хората някога сме били. Тези страхове са истинската заплаха, защото може да ни попречат да реализираме този потенциал.

Може би НЕреализирането на ИИ е истинската опасност за човечеството, казва Томас Миколов, изследовател в проекта на Facebook за ИИ на конференция в Прага ( The Joint Multi-Conference on Human-Level Artificial Intelligence ).

Като вид, обяснява той, хората сме много зле, когато трябва да направим избор, който да е добър за нас в дългосрочен план. Хората изсичат дъждовните гори, развалят други екосистеми, за да добиват сурови материали, без да са наясно (или без да се интересуват) от начина, по който това допринася за бавната, но (вероятно) необратима цялостна деградация на планетата.

Софистициран изкуствен интелект от друга страна вероятно би бил способен да предпази човечеството от собственото му късогледство.

„Ние хората сме много лоши в прогнозите за това, което може да се случи в дългосрочен план, да кажем 20-30 години напред във времето“, добавя Миколов. „Може би ИИ, който е много по-умен от нас, в симбиозна връзка, може да ни помогне да избегнем някакви бъдещи катстрофи.“

Сигурно, Миколов е в малцинството, което мисли че свръх ИИ като цяло ще бъде благосклонен. Мнозина панелисти на същата конференция изразяват общите страхове, особено за ИИ използван за опасни цели или ИИ, с който злоупотребяват различни злодеи. И не бива да омаловажаваме или да се смеем на такива опасения.

Засега дори все още не знаем дали ще успеем да създадем ИИ с обща интелигентност, което се въприема като Светия граал на софистицирания ИИ – такъв, който е в състояние да изпълни всяка когнитивна задача подобно на хората или по-добре.

Бъдещето на напредналия ИИ е обещаващо, но идва с множество етични въпроси. Засега дори не знаем всички въпроси, на които ще трябва да отговорим.

Всички участници в Прага обаче са категорични, че трябва да се договорим за правилата, още преди са ни потрябвали. Времето да се подпишат международните споразумения, да се създадат етичните бордове, да се съставят регулаторните органи, независимо дали частни компании или академични тела, е сега. Поставянето на тези институции и протоколи на място ще намали риска от това злонамерено правителство, учен – злодей или друг недобронамерен персонаж да вкара в действие зловредна система на ИИ или да превърне в оръжие напреднал алгоритъм. И ако някога се появи нещо подобно тези структури ще гарантират наличието на начин да се справим с него.

С налични правила и „инструкции за безопасност“ е по-вероятно да живеем в хармония с развитието на ИИ и може би дори да се предпазим от самите нас.

инфо: megavselena.bg

Вижте още:

Безсмъртието – заветната цел на супербогатите

Стивън Хокинг: Трябва да внимаваме с изкуствения интелект

Мъск предупреждава за вариант „Терминатор“ с изкуствения интелект

Подкрепете Световни Загадки!

Ако харесвате Световни Загадки и искате сайтът да продължи да съществува, подкрепете ни с дарение.

Световни Загадки е проект, който поддържаме с огромно желание и ентусиазъм, но и с много труд. Сайтът е безплатен за своите читатели и се издържа от реклама, което не винаги е достатъчно. Ако искате да сте сигурни, че и в бъдеще всички ще могат да имат достъп до информацията на сайта, можете да направите еднократно или месечно дарение с бутона [Donate] по-долу. Благодарим Ви!

Google взе мерки, ако изкуствен интелект заплаши човечеството

Футуролог предсказа кога хората ще станат безсмъртни

За още интересни новини харесайте страницата ни във Facebook  тук

Оставете коментар

Писането на кирилица е силно препоръчително.

Сайтът не носи отговорност за съдържанието на коментарите и мненията, изказани в тях. Запазваме си правото да изтриваме коментари, които съдържат обидни или нецензурни изрази, които представляват явна или скрита реклама и които преценим за неподходящи по някаква друга причина.

Моля, обърнете внимание, че коментарите не са начин за връзка с нашия сайт. В случай, че искате да се свържете с нас, моля ползвайте за това секцията Контакти.