„Anthropic“ siekia finansuoti naujos, išsamesnės kartos AI etalonus
Anthropic pradeda programą, skirtą finansuoti naujų tipų etalonų, galinčių įvertinti AI modelių našumą ir poveikį, kūrimą, įskaitant generuojančius modelius, tokius kaip jos Claude'as.
Pirmadienį pristatyta „Anthropic“ programa skirs mokėjimus trečiųjų šalių organizacijoms, kurios gali, kaip bendrovė teigia tinklaraščio įraše, „efektyviai įvertinti pažangias AI modelių galimybes“. Norintieji gali teikti paraiškas, kurios bus vertinamos nuolat.
„Mūsų investicijos į šiuos vertinimus yra skirtos pakelti visą AI saugos sritį, suteikiant vertingų įrankių, naudingų visai ekosistemai“, – savo oficialiame tinklaraštyje rašė Anthropic. „Aukštos kokybės, saugai svarbių vertinimų kūrimas išlieka sudėtingas, o paklausa viršija pasiūlą.
Kaip jau pabrėžėme anksčiau, AI turi lyginamosios analizės problemą. Šiandien dažniausiai cituojami AI etalonai prastai fiksuoja, kaip paprastas žmogus iš tikrųjų naudoja testuojamas sistemas. Taip pat kyla klausimų, ar kai kurie etalonai, ypač tie, kurie buvo išleisti prieš šiuolaikinio generatyvaus AI aušrą, išmatuoja tai, ką jie nori išmatuoti, atsižvelgiant į jų amžių.
Labai aukšto lygio, sunkesnis nei skamba sprendimas, kurį siūlo Anthropic, sukuria sudėtingus etalonus, daugiausia dėmesio skiriant dirbtinio intelekto saugumui ir visuomenei, naudojant naujus įrankius, infrastruktūrą ir metodus.
Bendrovė ypač ragina atlikti bandymus, kurie įvertintų modelio gebėjimą atlikti tokias užduotis kaip vykdyti kibernetines atakas, „patobulinti“ masinio naikinimo ginklus (pvz., branduolinius ginklus) ir manipuliuoti ar apgaudinėti žmones (pvz., per klastotes ar klaidingą informaciją). Dėl dirbtinio intelekto rizikos, susijusios su nacionaliniu saugumu ir gynyba, Anthropic teigia, kad yra įsipareigojusi sukurti „ankstyvo įspėjimo sistemą“, skirtą rizikai nustatyti ir įvertinti, nors tinklaraščio įraše neatskleidžiama, ką tokia sistema gali reikšti.
Anthropic taip pat teigia ketinanti savo naująja programa remti etalonų ir „nuo galo iki galo“ užduočių tyrimus, kurie ištiria AI potencialą padėti moksliniams tyrimams, kalbėtis keliomis kalbomis ir sumažinti įsišaknijusius šališkumus, taip pat savicenzūros toksiškumą.
Kad visa tai pasiektų, Anthropic numato naujas platformas, leidžiančias dalyko ekspertams kurti savo vertinimus ir didelio masto modelių bandymus, kuriuose dalyvauja „tūkstančiai“ vartotojų. Bendrovė teigia, kad pasamdė visą darbo dieną dirbantį programos koordinatorių ir kad ji gali įsigyti arba išplėsti projektus, kurie, jos manymu, gali plėsti.
„Mes siūlome įvairias finansavimo galimybes, pritaikytas kiekvieno projekto poreikiams ir etapui“, – pranešime rašo Anthropic, nors Anthropic atstovas spaudai atsisakė pateikti daugiau informacijos apie šias galimybes. „Komandos turės galimybę tiesiogiai bendrauti su Anthropic domeno ekspertais iš pasienio raudonosios komandos, tikslinimo, pasitikėjimo ir saugos bei kitomis atitinkamomis komandomis.
„Anthropic“ pastangos palaikyti naujus AI etalonus yra pagirtinos – žinoma, darant prielaidą, kad už tai yra pakankamai pinigų ir darbo jėgos. Tačiau atsižvelgiant į įmonės komercines ambicijas dirbtinio intelekto lenktynėse, gali būti sunku visiškai pasitikėti.
Tinklaraščio įraše Anthropic gana skaidriai kalba apie tai, kad nori, kad tam tikri vertinimai, kuriuos ji finansuotų, atitiktų AI saugos klasifikacijas. tai sukurta (su tam tikru trečiųjų šalių, pvz., ne pelno AI tyrimų organizacijos METR, indėliu). Tai gerai priklauso bendrovės prerogatyvai. Tačiau tai taip pat gali priversti kandidatus į programą priimti „saugaus“ arba „rizikingo“ AI apibrėžimus, su kuriais jie gali nesutikti.
Dalis AI bendruomenės taip pat tikriausiai nesutiks su Anthropic nuorodomis į „katastrofišką“ ir „apgaulingą“ AI riziką, pavyzdžiui, branduolinio ginklo riziką. Daugelis ekspertų teigia, kad nėra daug įrodymų, leidžiančių manyti, kad dirbtinis intelektas gali greitai, jei kada nors kada nors, įgyti pasaulinio galo ir žmonių pergudravimo galimybių. Teiginiai apie neišvengiamą „superintelektą“ tik nukreipia dėmesį nuo aktualių AI reguliavimo problemų, tokių kaip AI haliucinacijos, priduria šie ekspertai.
Savo įraše „Anthropic“ rašo, kad tikisi, kad jos programa taps „katalizatoriumi pažangai link ateities, kurioje išsamus AI vertinimas yra pramonės standartas“. Tai yra daugybė atvirų, su įmonėmis nesusijusių pastangų sukurti geresnius AI etalonus, su kuria galima susitapatinti. Tačiau dar reikia pamatyti, ar šios pastangos nori suvienyti jėgas su AI pardavėju, kurio lojalumas galiausiai priklauso akcininkams.