Ексклузивно: Поръчан от Американското правителство доклад набеди AI за екзистенциална заплаха
„Изключително важно е правителството на САЩ да действа бързо и решително, за да предотврати значителни рискове за националната сигурност, произтичащи от изкуствения интелект (AI), които в най-лошия случай биха могли да доведат до „екзистенциален риск за човешката раса“, се казва в доклад, поръчан от американското правителство.
Докладът, цитиран от сп. TIME гласи, че настоящите възможности на AI представляват „Спешна и нарастваща заплаха за националната сигурност на Съединените щати“. Документът сравнява потенциалните въздействия на напредналите AI и AGI („общ изкуствен интелект“) с появата на ядрените оръжия. AGI е проектна технология, която може да изпълнява повечето задачи на ниво или над нивото на човешки интелект; към момента такива системи все още не съществуват, но водещите AI лаборатории работят върху тяхната реализация. В доклада се прогнозира, че AGI ще се появи през следващите пет години.
Авторите на доклада са прекарали повече от година в проучване на темата, като са разговаряли с над 200 държавни служители, експерти и служители в компании, работещи на първа линия в развитието на AI, сред които OpenAI, Google DeepMind, Anthropic и Meta. Беседите разкриват опасения сред служителите по безопасност на AI относно стимулите, движещи решенията, вземани от изпълнителните директори, контролиращи техните компании.
За да смекчат потенциалните рискове, докладчиците предлагат безпрецедентна политическа намеса в развитието на технологията. Сред препоръките са създаване на федерален AI отдел и законова забрана за обучаване на AI модели с изчислителна мощност над определено ниво; създаване на разрешителен режим за компании да разработват и внедряват нови модели над определеният праг и криминализиране на публикуването на вътрешните работни механизми на мощните AI модели, което би засегнало вече създадените AI модели с отворен код. Предложено е още установените нарушители да се санкционират с наказателно преследване. Докладът също така препоръчва затягане на контрола върху производството и износа на AI чипове и увеличаване на финансирането за изследвания, насочени към обезопасяването на Изкуственият интелект.
Докладът e поръчан от Държавния департамент на САЩ като част от федерална поръчка на стойност 250 000 долара. Документът е изготвен от четиричленна комисия, съставена от служители на Gladstone AI, компания която провежда технически тренинги с правителствени служители относно работата с AI. Част от препоръките предполагат значително увеличение на федералните инвестиции в образоването на официални лица относно разнообразни аспекти на AI системите, за да могат служителите по-добре да разбират свързаните с изкуственият интелект рискове.
Първата страница на доклада гласи:
„Препоръките не отразяват гледната точка на правителството на САЩ“.
Много от препоръките в доклада, които доскоро биха звучали налудничаво идват след зашеметяваща серия от постижения в областта на изкуствения интелект. Бурното развитие на технологията накара мнозина наблюдатели да преосмислят позицията си спрямо ефектите на AI върху човечеството. Чатботът ChatGPT, пуснат през ноември 2022 г. бе едва първият инструмент, чрез който потенциала на AI стана видим за обществеността. Оттогава насам продължават да излизат нови разработки с още по-големи възможности. Докато правителствата по света обсъждат най-добрия начин за регулиране на изкуствения интелект, технологичните гиганти вече изграждат грандиозна инфраструктура за обучение на следващо поколение още по-мощни системи.
Междувременно стана ясно, че според скорошно проучване на Института за политики в областта на изкуствения интелект, над 80% от американското население смята, че изкуственият интелект може случайно да причини катастрофално събитие, а 77% от респондентите заявяват, че правителството трябва да направи повече за регулирането му.
Докладът адресира страховете на американците в две отделни категории рискове. Първата категория, посочена като „Риск от изтребление“, гласи: „Такива системи биха могли потенциално да бъдат използвани за проектиране и дори изпълнение на катастрофални биологични, химически или кибер атаки или да позволят безпрецедентни атаки на въоръжена армия от роботи.“ Втората категория е това, което докладът нарича „Риск от загуба на контрол“ или възможността усъвършенстваните AI системи да надхитрят своите създатели. Съществува „основателна причина да се смята, че AI системте може да станат неуправляеми, ако са разработени с настоящите техники, и могат по подразбиране да станат враждебни към хората“, се посочва в доклада.
В документа се споделят опасения на федерални служители от лекотата и ниската цена, с която недобросъвестни потребители могат да премахнат предпазните механизми, внедредни в AI системите с отворен код. „Ако разпространите отворен модел, дори да изглежда безопасен, той може да стане опасен в дългосрочен план“, се посочва в доклада, добавяйки, че решението да се отвори даден модел е необратимо: „В този момент всичко, което можете да направите, е просто да поемете отговорност за щетите.“