„Emotion AI“ gali būti kita verslo programinės įrangos tendencija, ir tai gali būti problematiška
Įmonėms eksperimentuojant su dirbtinio intelekto įterpimu visur, viena netikėta tendencija yra tai, kad įmonės kreipiasi į DI, kad padėtų daugybei naujai atrastų robotų geriau suprasti žmogaus emocijas.
Pagal naują PitchBook Enterprise Saas Emerging Tech Research ataskaitą tai yra sritis, vadinama „emocijų AI“, kurioje prognozuojama, kad ši technologija auga.
Priežastys skamba maždaug taip: jei įmonės diegia dirbtinio intelekto padėjėjus prie vadovų ir darbuotojų, o dirbtinio intelekto pokalbių robotus paverčia tiesioginiais pardavėjais ir klientų aptarnavimo atstovais, kaip dirbtinis intelektas gali veikti gerai, jei nesupranta skirtumo tarp pikto „Ką daryti. tu turi tai omenyje?” ir sumišęs „Ką tu tuo nori pasakyti?
Emotion AI teigia esąs sudėtingesnis jausmų analizės brolis, iki AI technologija, kuria bandoma atskirti žmogaus emocijas iš teksto pagrįstos sąveikos, ypač socialinėje žiniasklaidoje. Emocijų dirbtinis intelektas yra tai, ką galima pavadinti daugiarūšiu, naudojant vaizdo, garso ir kitų įvesties jutiklius kartu su mašininiu mokymusi ir psichologija, siekiant aptikti žmogaus emocijas sąveikos metu.
Pagrindiniai AI debesų tiekėjai siūlo paslaugas, kurios suteikia kūrėjams prieigą prie emocijų AI galimybių, pvz., „Microsoft Azure“ pažinimo paslaugų „Emotion API“ arba „Amazon Web Services“ atpažinimo paslauga. (Pastarasis per daugelį metų buvo ginčų.)
Pasak PitchBook, emocijų dirbtinis intelektas, netgi siūlomas kaip debesies paslauga, nėra naujiena, tačiau staigus robotų skaičiaus padidėjimas tarp darbo jėgos suteikia jam daugiau ateities verslo pasaulyje nei bet kada anksčiau.
„Daugėjant dirbtinio intelekto asistentų ir visiškai automatizuoto žmogaus ir mašinos sąveikos, emocijų AI žada sudaryti galimybę interpretuoti ir reaguoti labiau į žmones“, – pranešime rašo „PitchBook“ vyresnysis analitikas Derekas Hernandezas.
„Kameros ir mikrofonai yra neatsiejama emocijų AI aparatinės pusės dalis. Jie gali būti nešiojamajame kompiuteryje, telefone arba atskirai fizinėje erdvėje. Be to, nešiojama aparatinė įranga greičiausiai suteiks dar vieną būdą panaudoti emocijų AI ne tik šiuose įrenginiuose“, – sako Hernandezas „TechCrunch“. (Taigi, jei klientų aptarnavimo pokalbių robotas prašo prieigos prie fotoaparato, tai gali būti priežastis.)
Tuo tikslu pradedamas augantis startuolių būrys, kad taip būtų. Tai apima „Uniphore“ (iš viso surinkta 610 mln. USD, įskaitant 400 mln. USD 2022 m., kuriai vadovavo NEA), taip pat „MorphCast“, „Voicesense“, „Superceed“, „Siena AI“, „audEERING“ ir „Opsis“, kurių kiekviena taip pat surinko nedideles sumas iš įvairių VC, „PitchBook“ skaičiavimais. .
Žinoma, emocijų AI yra labai Silicio slėnio metodas: naudokite technologiją, kad išspręstumėte problemą, kurią sukelia technologijų naudojimas su žmonėmis.
Tačiau net jei dauguma AI robotų ilgainiui įgis tam tikrą automatizuotą empatiją, tai nereiškia, kad šis sprendimas tikrai veiks.
Tiesą sakant, paskutinį kartą, kai emocijų dirbtinis intelektas labai domino Silicio slėnyje – maždaug 2019 m., kai didžioji dalis AI/ML pasaulio vis dar buvo sutelkta į kompiuterinį regėjimą, o ne į generuojančią kalbą ir meną – mokslininkai metė veržliaraktį į šią idėją. . Tais metais mokslininkų grupė paskelbė tyrimų metaapžvalgą ir padarė išvadą, kad žmogaus emocijų iš tikrųjų negalima nulemti veido judesiais. Kitaip tariant, ši mintis, kad galime išmokyti dirbtinį intelektą aptikti žmogaus jausmus, kai jis imituoja kitų žmonių bandymus (skaityti veidus, kūno kalbą, balso toną), yra šiek tiek klaidinga.
Taip pat yra galimybė, kad DI reglamentas, pvz., Europos Sąjungos AI įstatymas, draudžiantis kompiuterinio regėjimo emocijų aptikimo sistemas tam tikrais tikslais, pavyzdžiui, švietimui, gali sužlugdyti šią idėją. (Kai kurie valstijos įstatymai, pavyzdžiui, Ilinojaus BIPA, taip pat draudžia rinkti biometrinius rodmenis be leidimo.)
Visa tai leidžia plačiau pažvelgti į šią visur veikiančią AI ateitį, kurią šiuo metu beprotiškai stato Silicio slėnis. Arba šie dirbtinio intelekto robotai bandys suprasti emocinį supratimą, kad galėtų atlikti tokius darbus kaip klientų aptarnavimas, pardavimas, personalo valdymas ir visos kitos užduotys, kurias žmonės tikisi jiems priskirti, arba galbūt jie nebus labai gerai atlikti bet kurią užduotį, kuriai iš tikrųjų reikia tų gebėjimų. . Galbūt mes žiūrime į biuro gyvenimą, pripildytą dirbtinio intelekto robotų, panašių į Siri maždaug 2023 m. Palyginti su valdymo reikalingu robotu, kuris susitikimų metu realiu laiku spėlioja kiekvieno jausmus, kas pasakys, kuris yra blogesnis?