Ši savaitė AI: „Apple“ nesakys, kaip gaminama dešra
Sveiki, žmonės ir sveiki atvykę į įprastą „TechCrunch“ AI informacinį biuletenį.
Šią savaitę dirbtinio intelekto srityje „Apple“ pavogė dėmesio centrą.
Bendrovės pasaulinėje kūrėjų konferencijoje (WWDC) Cupertino mieste „Apple“ pristatė „Apple Intelligence“ – ilgai lauktą visos ekosistemos postūmį į generatyvųjį AI. „Apple Intelligence“ suteikia daugybę funkcijų: nuo atnaujintos „Siri“ iki dirbtinio intelekto sukurtų jaustukų iki nuotraukų redagavimo įrankių, pašalinančių iš nuotraukų nepageidaujamus žmones ir objektus.
Bendrovė pažadėjo, kad „Apple Intelligence“ yra kuriama atsižvelgiant į saugumą ir labai suasmenintą patirtį.
„Jis turi jus suprasti ir būti pagrįstas jūsų asmeniniu kontekstu, pavyzdžiui, jūsų kasdienybe, santykiais, bendravimu ir dar daugiau“, – pirmadienį per pagrindinį pranešimą pažymėjo generalinis direktorius Timas Cookas. „Visa tai peržengia dirbtinio intelekto ribas. Tai asmeninis intelektas, ir tai yra kitas didelis „Apple“ žingsnis.
„Apple Intelligence“ yra klasikinė „Apple“: ji slepia niūrias technologijas, kurios slypi už akivaizdžiai intuityviai naudingų funkcijų. (Ne kartą Cookas ištarė frazę „didelės kalbos modelis“.) Tačiau kaip žmogus, rašantis apie dirbtinio intelekto gelmes, norėdamas pragyventi, norėčiau, kad „Apple“ būtų skaidresnė – tik šį kartą – apie dešros gaminimą.
Paimkite, pavyzdžiui, „Apple“ modelių mokymo praktiką. „Apple“ tinklaraščio įraše atskleidė, kad ji moko dirbtinio intelekto modelius, kurie maitina „Apple Intelligence“, derinant licencijuotus duomenų rinkinius ir viešąjį žiniatinklį. Leidėjai turi galimybę atsisakyti būsimų mokymų. Bet ką daryti, jei esate menininkas, smalsus, ar jūsų darbas buvo nušluotas per pradinius „Apple“ mokymus? Sunki sėkmė – mama yra žodis.
Paslaptis gali būti dėl konkurencijos priežasčių. Tačiau įtariu, kad tai taip pat skirta apsaugoti „Apple“ nuo teisinių iššūkių, ypač su autorių teisėmis susijusių iššūkių. Teismai dar turi nuspręsti, ar pardavėjai, tokie kaip „Apple“, turi teisę mokytis apie viešuosius duomenis, neatlygindami ar neįskaitydami tų duomenų kūrėjų, kitaip tariant, ar sąžiningo naudojimo doktrina taikoma generatyviniam AI.
Šiek tiek apmaudu matyti, kad „Apple“, kuri dažnai save laiko protingos technologijų politikos šalininke, netiesiogiai priima sąžiningo naudojimo argumentą. Rinkodaros šydu apgaubta „Apple“ gali teigti, kad ji atsakingai ir išmatuotai žiūri į dirbtinį intelektą, o galbūt be leidimo mokėsi apie kūrėjų darbus.
Mažas paaiškinimas būtų labai naudingas. Gaila, kad jo negavome – ir aš nesitikiu, kad greitai sulauksime, nebent bus iškelta byla (ar du).
žinios
Populiariausios „Apple“ AI funkcijos: Jūsų pasiūlymas iš tikrųjų apibendrino geriausias dirbtinio intelekto funkcijas, apie kurias „Apple“ paskelbė per WWDC šią savaitę, nuo atnaujintos „Siri“ iki gilios integracijos su OpenAI „ChatGPT“.
OpenAI samdo vykdytojus: Šią savaitę „OpenAI“ pasamdė Sarah Friar, buvusią hiperlokalinio socialinio tinklo „Nextdoor“ generalinę direktorę, eiti jos vyriausiojo finansininko pareigas, o Keviną Weilį, kuris anksčiau vadovavo produktų kūrimui „Instagram“ ir „Twitter“ – vyriausiuoju produktų pareigūnu.
Paštas, dabar su daugiau AI: Šią savaitę „Yahoo“ (pagrindinė „TechCrunch“ įmonė) atnaujino „Yahoo Mail“ su naujomis AI galimybėmis, įskaitant dirbtinio intelekto sukurtas el. laiškų santraukas. „Google“ neseniai pristatė panašią generuojamojo apibendrinimo funkciją, tačiau ji yra už mokamos sienos.
Prieštaringi požiūriai: Neseniai atliktas Carnegie Mellon tyrimas atskleidė, kad ne visi generaciniai AI modeliai yra sukurti vienodai, ypač kai kalbama apie tai, kaip jie traktuoja poliarizuojančią medžiagą.
Garso generatorius: „Stability AI“, startuolis, sukurtas dirbtiniu intelektu varomo meno generatoriaus „Stable Diffusion“, išleido atvirą AI modelį, skirtą garsams ir dainoms generuoti.
Savaitės mokslinis darbas
„Google“ mano, kad gali sukurti generatyvų AI modelį, skirtą asmens sveikatai, arba bent jau imtis preliminarių veiksmų šia kryptimi.
Naujame dokumente, paskelbtame oficialiame „Google AI“ tinklaraštyje, „Google“ tyrėjai atitraukia uždangą nuo „Personal Health Large Language Model“ arba trumpiau PH-LLM – vieno iš „Google“ Dvynių modelių sureguliuotos versijos. PH-LLM sukurta siekiant teikti rekomendacijas, kaip pagerinti miegą ir kūno rengybą, iš dalies nuskaitant širdies ir kvėpavimo dažnio duomenis iš nešiojamų prietaisų, pvz., išmaniųjų laikrodžių.
Norėdami patikrinti PH-LLM gebėjimą pateikti naudingų sveikatos pasiūlymų, mokslininkai sukūrė beveik 900 miego ir kūno rengybos atvejų tyrimų, kuriuose dalyvavo JAV gyvenantys asmenys. Jie nustatė, kad PH-LLM pateikė miego rekomendacijas, kurios buvo tokios arti – bet ne taip gerai, kaip – žmonių miego ekspertų pateiktos rekomendacijos.
Tyrėjai teigia, kad PH-LLM gali padėti kontekstualizuoti fiziologinius duomenis „asmeninės sveikatos programoms“. „Google Fit“ ateina į galvą; Nenustebčiau pamatęs, kad PH-LLM galiausiai įdiegs kokią nors naują į kūno rengybą orientuotos „Google“ programos „Fit“ ar kitokią funkciją.
Savaitės modelis
„Apple“ skyrė nemažai tinklaraščio kopijos, kurioje išsamiai aprašomi nauji įrenginyje ir debesyse susieti generaciniai AI modeliai, sudarantys „Apple Intelligence“ rinkinį. Vis dėlto, nepaisant šio įrašo ilgio, jis mažai ką atskleidžia apie modelių galimybes. Štai mūsų geriausias bandymas jį išanalizuoti:
Bevardžio įrenginyje esantis „Apple“ modelis yra mažo dydžio, be jokios abejonės, todėl jis gali veikti neprisijungus tokiuose „Apple“ įrenginiuose kaip „iPhone 15 Pro“ ir „Pro Max“. Jame yra 3 milijardai parametrų – „parametrai“ yra modelio dalys, kurios iš esmės apibrėžia jo įgūdžius spręsti problemą, pvz., teksto generavimą, todėl jį galima palyginti su „Google“ įrenginyje įdiegtu „Gemini“ modeliu „Gemini Nano“, kurio parametrų skaičius yra 1,8 mlrd. 3,25 milijardo parametrų dydžiai.
Tuo tarpu serverio modelis yra didesnis (kiek didesnis, Apple tiksliai nepasakys). Ką mes daryti žinome, kad jis yra pajėgesnis nei įrenginyje esantis modelis. Nors įrenginyje įdiegtas modelis veikia lygiai taip pat kaip „Microsoft“ „Phi-3-mini“, „Mistral“ „Mistral 7B“ ir „Google“ „Gemma 7B“, esantis „Apple“ etalonų sąrašuose, serverio modelis „gerai lyginamas“ su senesniu OpenAI pavyzdiniu modeliu GPT-3.5 Turbo, „Apple“. pretenzijas.
„Apple“ taip pat teigia, kad mažiau tikėtina, kad tiek įrenginyje esantis, tiek serverio modelis nukryps nuo bėgių (ty toksiškumas snapeliui) nei panašaus dydžio modeliai. Taip gali būti, bet šis rašytojas pasilieka sprendimą, kol turėsime galimybę išbandyti „Apple Intelligence“.
Paimk krepšį
Šią savaitę buvo minimos šeštos GPT-1, GPT-4o, naujausio OpenAI generuojamojo dirbtinio intelekto modelio pavyzdinio pavyzdžio, išleidimo metinės. Ir nors gilus mokymasis gali atsitrenkti į sieną, neįtikėtina, kaip toli pažengta.
Apsvarstykite, kad prireikė mėnesio treniruoti GPT-1 4,5 gigabaitų teksto duomenų rinkinyje (BookCorpus, kuriame yra ~ 7000 neskelbtų grožinės literatūros knygų). GPT-3, kuris yra beveik 1 500 kartų didesnis už GPT-1 pagal parametrų skaičių ir žymiai sudėtingesnis prozoje, kurią jis gali generuoti ir analizuoti, užtruko 34 dienas. Kaip tai susiję su mastelio keitimu?
Tai, kas padarė GPT-1 novatorišką, buvo jo požiūris į mokymą. Ankstesni metodai rėmėsi didžiuliu kiekiu rankiniu būdu pažymėtų duomenų, o tai ribojo jų naudingumą. (Duomenų žymėjimas rankiniu būdu užima daug laiko ir reikalauja daug pastangų.) Tačiau GPT-1 to nepadarė; ji treniravosi pirmiausia nepaženklintas duomenis, kad „išmoktumėte“ atlikti įvairias užduotis (pvz., rašyti esė).
Daugelis ekspertų mano, kad tokio reikšmingo paradigmos poslinkio kaip GPT-1 greitai nepamatysime. Bet vėlgi, pasaulis taip pat nematė GPT-1.