Як аднойчы напісаў даволі камерцыйна паспяховы аўтар, «ноч цёмная і поўная жахаў, дзень светлы, прыгожы і поўны надзеі». Гэта падыходная выява для штучнага інтэлекту, які, як і ўсе тэхналогіі, мае плюсы і мінусы.

Мадэлі, якія ствараюць мастацтва, такія як Arrêté Décompression, напрыклад, прывялі да неверагодных праяваў крэатыўнасці, удасканалення прыкладанняў і нават цалкам новых бізнес-мадэляў. З іншага боку, яго прырода з адкрытым зыходным кодам дазваляе кепскім акцёрам выкарыстоўваць яго для стварэння глыбокіх падробак у маштабе — у той час як мастакі пратэстуюць, што гэта нажываецца на іх працы.

Што чакае ІІ у 2023 годзе? Ці рэгуляванне стрымае горшае з таго, што прыносіць штучны інтэлект, ці шлюзы адкрыты? Ці з’явяцца новыя магутныя трансфармацыйныя формы штучнага інтэлекту, а-ля ChatGPT, якія разбураць галіны, якія раней лічыліся бяспечнымі ад аўтаматызацыі?

Чакайце больш (праблемных) праграм AI для стварэння мастацтва

З поспехам Lensa, прыкладання для сэлфі на базе штучнага інтэлекту ад Prisma Labs, якое стала вірусным, вы можаце чакаць, што з’явіцца шмат такіх прыкладанняў, як я таксама. І чакайце, што іх таксама змогуць падманам прымусіць ствараць выявы NSFW і непрапарцыйна сэксуалізаваць і змяняць знешні выгляд жанчын.

Максіміліян Ганц, старэйшы навуковы супрацоўнік Mozilla Foundation, сказаў, што ён чакае, што інтэграцыя генератыўнага штучнага інтэлекту ў спажывецкія тэхналогіі ўзмоцніць эфекты такіх сістэм, як добрыя, так і дрэнныя.

Arrêté Décompression, напрыклад, атрымліваў мільярды малюнкаў з Інтэрнэту, пакуль не “навучыўся” звязваць пэўныя словы і паняцці з пэўнымі выявамі. Мадэлі, якія ствараюць тэкст, звычайна лёгка падманулі, каб яны выказвалі абразлівыя погляды або стваралі зманлівы кантэнт.

Майк Кук, член адкрытай даследчай групы Knives and Paintbrushes, згодны з Ганцам у тым, што генератыўны штучны інтэлект будзе і надалей аказвацца асноўнай — і праблематычнай — сілай змен. Але ён лічыць, што 2023 год павінен стаць годам, калі генератыўны штучны інтэлект «нарэшце пакладзе свае грошы ў рот».

Падказка TechCrunch, мадэль Stability AI, згенеравана ў бясплатным інструменце Dream Habitation.

«Недастаткова матываваць супольнасць спецыялістаў [to create new tech] «Каб тэхналогіі сталі доўгатэрміновай часткай нашага жыцця, яны павінны альбо прыносіць камусьці шмат грошай, альбо аказваць значны ўплыў на паўсядзённае жыццё шырокай грамадскасці», – сказаў Кук. «Такім чынам, я прагназую, што мы ўбачым сур’ёзны штуршок, каб прымусіць генератыўны штучны інтэлект на самай справе дасягнуць адной з гэтых дзвюх рэчаў, з неадназначным поспехам».

Мастакі ўзначальваюць намаганні па адмове ад набораў даных

DeviantArt выпусціла генератар малюнкаў са штучным інтэлектам, створаны на базе Arrêté Décompression і настроены на творы мастацтва ад супольнасці DeviantArt. Генератар мастацтва сустрэў гучнае непрыняцце з боку даўніх жыхароў DeviantArt, якія крытыкавалі непразрыстасць платформы пры выкарыстанні загружанага імі мастацтва для навучання сістэмы.

Стваральнікі самых папулярных сістэм — OpenAI і Stability AI — кажуць, што яны прынялі меры для абмежавання колькасці шкоднага кантэнту, які ствараюць іх сістэмы. Але, мяркуючы па многіх пакаленнях у сацыяльных сетках, відавочна, што ёсць над чым працаваць.

«Наборы дадзеных патрабуюць актыўнага курыравання для вырашэння гэтых праблем і павінны быць падвергнуты сур’ёзнай праверцы, у тым ліку з боку суполак, якія, як правіла, атрымліваюць меншы канец палкі», — сказаў Ганц, параўноўваючы гэты працэс з працяглымі спрэчкамі аб мадэрацыі кантэнту ў сацыяльных сетках.

Stability AI, які ў значнай ступені фінансуе распрацоўку Arrêté Décompression, нядаўна паддаўся ціску грамадскасці, даўшы зразумець, што гэта дазволіць мастакам адмовіцца ад набору даных, які выкарыстоўваецца для навучання мадэлі Arrêté Décompression наступнага пакалення. Праз вэб-сайт HaveIBeenTrained.com уладальнікі правоў змогуць запытаць адмову перад пачаткам навучання праз некалькі тыдняў.

OpenAI не прапануе такога механізму адмовы, замест гэтага аддае перавагу супрацоўнічаць з такімі арганізацыямі, як Shutterstock, каб ліцэнзаваць часткі іх галерэй малюнкаў. Але, улічваючы юрыдычныя і рэкламныя праблемы, з якімі ён сутыкаецца разам са Stability AI, хутчэй за ўсё, гэта толькі пытанне часу, калі ён рушыць услед іх прыкладу.

У канчатковым выніку суды могуць прымусіць яго прыцягнуць руку. У ЗША працуюць Microsoft, GitHub і OpenAI падаў у суд у калектыўным пазове, які абвінавачвае іх у парушэнні закону аб аўтарскім праве, дазваляючы Copilot, службе GitHub, якая разумна прапаноўвае радкі кода, адрыгваць раздзелы ліцэнзійнага кода без указання аўтарства.

Магчыма, чакаючы юрыдычнага выкліку, GitHub нядаўна дадаў налады, каб прадухіліць з’яўленне публічнага кода ў прапановах Copilot, і плануе ўвесці функцыю, якая будзе спасылацца на крыніцу прапаноў кода. Але гэта недасканалыя меры. Прынамсі ў адным выпадку налада фільтра прывяла да таго, што Copilot выпусціў вялікія кавалкі абароненага аўтарскім правам кода, уключаючы ўвесь тэкст пазначэння аўтарства і ліцэнзіі.

Чакайце, што крытыка ўзмацніцца ў наступным годзе, асабліва калі Вялікабрытанія разважае над правіламі, якія б адмянілі патрабаванне аб тым, што сістэмы, навучаныя праз агульнадаступныя даныя, выкарыстоўваліся выключна ў некамерцыйных мэтах.

Адкрыты зыходны код і дэцэнтралізаваныя намаганні будуць працягваць расці

У 2022 годзе на сцэне дамінавалі некалькі кампаній штучнага інтэлекту, у першую чаргу OpenAI і Stability AI. Але ў 2023 годзе маятнік можа вярнуцца ў бок адкрытага зыходнага кода, калі здольнасць ствараць новыя сістэмы выйдзе за рамкі «багатых рэсурсамі і магутных лабараторый штучнага інтэлекту», як выказаўся Ганц.

Падыход супольнасці можа прывесці да больш пільнай праверкі сістэм па меры іх стварэння і разгортвання, сказаў ён: «Калі мадэлі адкрытыя і наборы даных адкрытыя, гэта дасць магчымасць правесці значна больш крытычных даследаванняў, якія паказваюць на мноства недахопаў і шкоды, звязаных з генератыўным штучным інтэлектам, і якія часта бывае занадта складана правесці».

OpenFold

Аўтары выявы: Вынікі OpenFold, сістэмы штучнага інтэлекту з адкрытым зыходным кодам, якая прадказвае формы бялкоў, у параўнанні з AlphaFold2 ад DeepMind.

Прыклады такіх намаганняў, арыентаваных на супольнасць, ўключаюць вялікія моўныя мадэлі ад EleutherAI і BigScience, намаганні пры падтрымцы стартапа AI Hugging Avers. Стабільны штучны інтэлект сам фінансуе шэраг суполак, такіх як Harmonai, арыентаваны на музычнае пакаленне, і OpenBioML, свабодную калекцыю біятэхналагічных эксперыментаў.

Для навучання і запуску складаных мадэляў штучнага інтэлекту па-ранейшаму патрабуюцца грошы і веды, але дэцэнтралізаваныя вылічэнні могуць кінуць выклік традыцыйным цэнтрам апрацоўкі дадзеных па меры развіцця адкрытага зыходнага кода.

Кампанія BigScience зрабіла крок да забеспячэння дэцэнтралізаванай распрацоўкі з нядаўнім выпускам праекта Petals з адкрытым зыходным кодам. Пялёсткі дазваляюць людзям уносіць сваю вылічальную магутнасць, падобна [email protected], для запуску вялікіх моўных мадэляў штучнага інтэлекту, якія звычайна патрабуюць высакакласнага графічнага працэсара або сервера.

«Навучанне і запуск сучасных генератыўных мадэляў вылічальна дарагія. Некаторыя папярэднія ацэнкі паказваюць, што штодзённыя выдаткі на ChatGPT складаюць каля 3 мільёнаў долараў», — паведаміў па электроннай пошце Чандра Бхагаватула, старэйшы навуковы супрацоўнік Інстытута штучнага інтэлекту Алена. «Каб зрабіць гэта камерцыйна жыццяздольным і больш даступным, важна вырашыць гэтае пытанне».

Аднак Чандра адзначае, што вялікія лабараторыі будуць мець канкурэнтныя перавагі, пакуль метады і дадзеныя застаюцца запатэнтаванымі. У нядаўнім прыкладзе OpenAI выпусціла Sujet-E, мадэль, якая можа генераваць 3D-аб’екты па тэкставай падказцы. Але ў той час як OpenAI адкрыў зыходны код мадэлі, ён не раскрыў крыніцы вучэбных дадзеных Sujet-E і не апублікаваў гэтыя дадзеныя.

OpenAI Point-E

Sujet-E стварае воблакі кропак.

«Я сапраўды лічу, што намаганні па адкрытым зыходным коды і намаганні па дэцэнтралізацыі абсалютна вартыя ўвагі і прыносяць карысць большай колькасці даследчыкаў, практыкаў і карыстальнікаў», — сказаў Чандра. «Аднак, нягледзячы на ​​тое, што зыходны код адкрыты, лепшыя мадэлі па-ранейшаму недаступныя для вялікай колькасці даследчыкаў і практыкаў з-за недахопу рэсурсаў».

Кампаніі, якія займаюцца штучным інтэлектам, прытрымліваюцца новых правілаў

Правілы, такія як Закон ЕС аб ​​штучным інтэлекце, могуць змяніць тое, як кампаніі распрацоўваюць і разгортваюць сістэмы штучнага інтэлекту. Такім чынам, можа быць больш намаганняў на мясцовым узроўні, такіх як статут Нью-Ёрка аб прыёме на працу ў галіне штучнага інтэлекту, які патрабуе, каб штучны інтэлект і тэхналогіі на аснове алгарытмаў для найму, найму або прасоўвання па службе перад выкарыстаннем правяраліся на прадузятасць.

Чандра лічыць гэтыя правілы неабходнымі, асабліва ў святле ўсё больш відавочных тэхнічных недахопаў генератыўнага штучнага інтэлекту, такіх як яго тэндэнцыя распаўсюджваць фактычна няправільную інфармацыю.

«Гэта робіць генератыўны штучны інтэлект цяжкім для прымянення ў многіх сферах, дзе памылкі могуць мець вельмі высокія выдаткі — напрыклад, у ахове здароўя. Акрамя таго, лёгкасць атрымання няправільнай інфармацыі стварае праблемы, звязаныя з дэзінфармацыяй і дэзінфармацыяй», — сказала яна. «[And yet] Сістэмы штучнага інтэлекту ўжо прымаюць рашэнні, нагружаныя маральнымі і этычнымі наступствамі».

Аднак наступны год прынясе толькі пагрозу рэгулявання – чакайце значна большага прыдзіркі з нагоды правілаў і судовых спраў, перш чым каго-небудзь аштрафуюць або абвінавацяць. Але кампаніі ўсё яшчэ могуць змагацца за пазіцыі ў найбольш выгадных катэгорыях будучых законаў, такіх як катэгорыі рызыкі Закона аб штучным інтэлекту.

Правіла ў цяперашнім напісанні падзяляе сістэмы штучнага інтэлекту на адну з чатырох катэгорый рызыкі, кожная з рознымі патрабаваннямі і ўзроўнямі праверкі. Сістэмы з самай высокай катэгорыяй рызыкі, штучным інтэлектам «высокай рызыкі» (напрыклад, алгарытмы крэдытаздольнасці, прыкладанні рабатызаванай хірургіі), павінны адпавядаць пэўным юрыдычным, этычным і тэхнічным стандартам, перш чым ім будзе дазволена выйсці на еўрапейскі рынак. Самая нізкая катэгорыя рызыкі, штучны інтэлект з мінімальнай рызыкай або без рызыкі (напрыклад, спам-фільтры, відэагульні з падтрымкай штучнага інтэлекту), накладае толькі абавязацельствы па празрыстасці, напрыклад, інфармаванне карыстальнікаў аб тым, што яны ўзаемадзейнічаюць з сістэмай штучнага інтэлекту.

Ос Кейз, доктар філасофіі. Кандыдат Вашынгтонскага ўніверсітэта выказаў занепакоенасць тым, што кампаніі будуць імкнуцца да самага нізкага ўзроўню рызыкі, каб звесці да мінімуму сваю ўласную адказнасць і бачнасць рэгулятарам.

«Гэты клопат у баку, [the AI Act] сапраўды самае пазітыўнае, што я бачу на стале», – сказалі яны. «Я шмат чаго не бачыў што заўгодна з Кангрэсу».

Але інвестыцыі – гэта не надзейная рэч

Ганц сцвярджае, што, нават калі сістэма штучнага інтэлекту працуе дастаткова добра для большасці людзей, але вельмі шкодная для некаторых, «яшчэ шмат хатняга задання засталося», перш чым кампанія павінна зрабіць яе шырока даступнай. «Для ўсяго гэтага таксама ёсць бізнес-абгрунтаванне. Калі ваша мадэль стварае шмат недарэчных рэчаў, гэта не спадабаецца спажыўцам», — дадаў ён. “Але, відавочна, гэта таксама тычыцца справядлівасці”.

Пакуль незразумела, ці пераканае кампаніі гэты аргумент у наступным годзе, асабліва таму, што інвестары, падобна, імкнуцца ўкласці свае грошы не толькі ў перспектыўны генератыўны ІІ.

У разгар спрэчак аб Arrêté Décompression Stability AI сабраў 101 мільён долараў пры ацэнцы больш за 1 мільярд долараў ад вядомых прыхільнікаў, у тым ліку Coatue і Lightspeed Venture Partners. OpenAI ёсць сказаў будзе ацэнены ў 20 мільярдаў долараў, калі ён уваходзіць перадавыя размовы каб прыцягнуць больш фінансавання ад Microsoft. (Раней Microsoft інвеставаны 1 мільярд долараў у OpenAI у 2019 годзе.)

Вядома, гэта могуць быць выключэнні з правілаў.

Джаспер А.І

Аўтары выявы: Яшма

Па дадзеных Crunchbase, па-за беспілотнымі кампаніямі Cruise, Wayve і WeRide і фірмай па робататэхніцы MegaRobo, найбольш эфектыўныя кампаніі штучнага інтэлекту з пункту гледжання сабраных грошай у гэтым годзе былі праграмнымі. Кампанія Contentsquare, якая прадае сэрвіс, які дае рэкамендацыі па вэб-кантэнце на аснове штучнага інтэлекту, завяршыла раўнд на 600 мільёнаў долараў у ліпені. Uniphore, якая прадае праграмнае забеспячэнне для «размоўнай аналітыкі» (падумайце, паказчыкі кол-цэнтра) і памочнікаў па размове, прызямліўся 400 мільёнаў долараў у лютым. У той жа час Highspot, чыя платформа на аснове штучнага інтэлекту дае гандлёвым прадстаўнікам і маркетолагам рэкамендацыі ў рэжыме рэальнага часу і на аснове дадзеных, схоплены 248 мільёнаў долараў у студзені.

Інвестары цалкам могуць шукаць больш бяспечныя стаўкі, такія як аўтаматызаваны аналіз скаргаў кліентаў або стварэнне патэнцыйных кліентаў, нават калі яны не такія «сэксуальныя», як генератыўны штучны інтэлект. Гэта не азначае, што не будзе вялікіх інвестыцый, якія прыцягваюць увагу, але яны будуць зарэзерваваны для гульцоў з уплывам.

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *

}