News Pricer.lt

Atsakingi AI: Bendrovės verslo rizika daryti AI blogai yra per daug didelė.

Responsible AI: The business risk of doing AI badly is too high

Atsakingi Ai Gali Suteikti Įmonėms Konkurencinį Pranašumą. Kreditas: Shutterstock/irenar.

Dauguma technologijų vadovų sutinka , kad technologijų bendrovė be AI strategijos greitai pavirsta didžiuoju laivu be didžiojo draugo. Kai strategija yra įdiegta , tai tai yra vyresniųjų vadovų užduotis užtikrinti, kad atsakinga AI būtų neatsiejama nuo jos dizaino. Įtikinti įmonės suinteresuotuosius subjektus dėl atsakingai sukurtos AI strategijos svarbos neturėtų būti sudėtinga , kai pateikiama su alternatyva.

“Nė viena įmonė nenori pateikti pagrindinių straipsnių dėl to, kad jie panaudojo arba nepanaudojo kliento arba darbuotojo informacijos taip, kad padarė žalą,” sako GlobalData įmonės praktikos direktorė Rena Bhattacharya. Ir repeticijos žala yra ne vienintelis galimas nuostolis iš nekokybiškai įdiegtos AI, priduria Bhattacharya, atkreipdamas dėmesį į tai, kad tam tikrose pramonės šakose arba regionuose, galėtų būti skiriamos didelės baudos arba teisminės veiksmai .

Giliau įsigilinkite su GlobalData

Duomenys Įžvalgos

Galutinė

garsenybė standartas iš verslo žvalgybos.

Find out out

more

Yra daugybė būdų, kaip tai galėtų įvykti, nuo nesugebėjimo tinkamai apsaugoti asmeninę informaciją arba įmonėje įrengti apsaugos bėgius , kurie užkirstų kelią dezinformacijos

platinimui , į naudoti AI kad būtų šališkas arba atimtų privilegijas iš konkretaus asmens .demografinė grupė, paaiškina Battacharya.

Penki globaliai pripažinti atsakingo AI principai >

Šie principai valdo atsakingą AI yra plataus masto: sąžiningumas, paaiškinamumas, atsakomybė, patikimumas, saugumas, ir privatumas. Bet užtikrinti

klientus, darbuotojus, partnerius, ir pardavėjus , kad organizacija tinkamai įgyvendina šiuos priemones yra sunku pagrįsti , pagal Battacharya.

Kadangi tai yra pradžioje globalių standartų, yra geriausia praktika , susijusi su saugumu, duomenų valdymu, transparentiškumu, naudojimo atvejais, modelių valdymu, ir auditu, kuriuos organizacijos gali siekti įgyvendinti. “Tačiau atsakingos AI koncepcija yra vis dar plaukianti” , – priduria Bhattacharya.

“Įmonės turėtų atsižvelgti į savo įmonės etikos politiką ir susiburti daugiadisciplinines komandas , kurios stebėtų ir peržiūrėtų ne tik tai, kaip AI yra naudojama visoje organizacijoje, bet taip pat suvokti duomenų šaltinius , iš kurių gaunama informacija apie modelius,” sako Battacharya.

Kaip gerai jūs iš tikrųjų pažįstate savo konkurentus?

Prieiga prie išsamiausių įmonių profilių rinkose, pagal GlobalData. Sutaupykite valandų tyrimų. Įgykite konkurencinį pranašumą.

Įmonės profilis – laisvas pavyzdys

Dėkojame Jums!

Jūsų atsisiuntimo paštas bus atsiunčiamas netrukus

Jei dar nesate pasiruošę pirkti ? Sisiųskite nemokamą pavyzdį

Mes esame įsitikinę dėl vienintelės kokybės mūsų įmonių profilų. Taigi, mes norime, kad jūs priimtumėte naudingiausią sprendimą savo verslui, todėl mes

pasiūlėme nemokamą pavyzdį , kurį

galėsite atsisiųsti išsiųsdami pateiktą žemiau esančią

formą

Pagal GlobalData pasižymėkite čia čia ir

pasirinkite iš kuruojamų pramonės naujienų, ataskaitų, ir įvykių aktualijų iš Just Food. aplankykite mūsų Privacy Policy dėl daugiau informacijos apie mūsų paslaugas, kaip galime naudoti, apdoroti ir dalintis jūsų asmeniniais duomenimis, įskaitant informaciją apie jūsų teises į jūsų asmeninius duomenis ir kaip galite atsisakyti nuo būsimų rinkodaros komunikacijų. Mūsų paslaugos yra kirtos įmonių

abonentams ir jūs garantuojate , kad pateiktas elektroninio pašto adresas yra jūsų įmonės elektroninio pašto adresas.

Susan Taylor Martin

yra generalinė direktorė ir iš pagrindinės įmonėsBritų Standartų Institucija (BSI) – Jungtinės Karalystės nacionalinė standartų institucija – ir dirbo Jungtinės Karalystės Mokslo departamentui , inovacijų ir technologijų prie sukurti savęs vertinimo instrumentą , kuriuo siekiama padėti organizacijoms įvertinti ir įgyvendinti atsakingo AI valdymo sistemas ir procesus.

Taylor Martin sako , kad yra pareigojimas vadovams parodyti , kaip jie yra ėmęsi žingsnių , kad atsakingai valdytų AI savo įmonėse. “Kelias į priekį dėl saugaus AĮ

naudojimo gali būti neaiškus šiame etape, bet mes nesame bejėgiai padaryti įtakos krypties kelionei arba pasimokyti iš pamokų iš pagal praeitį” , sako ji .

Taigi, tai tai dabar nėra tiesioginis priekaištas , nes įmonės susiduria su globalaus reglamentavimo pluoštu su daugiau nei 70 teisės aktų peržiūrimais ir skirtingų jurisdikcijų priimamais labai skirtingais prietaisais.

2023 m. Jungtinės Karalystės vyriausybė išleido baltąją knygą, kurioje išdėstė savo proinovacijoms skirtą prieigą prie AĮ. 2024 m. vasario mėnesį Rišio Sonako konservatyvioji vyriausybė išleido vadovą , kuris rėmėsi baltojoje knygoje išdėstytais penkiais pro-inovacijų reguliavimo principais. Iki šiol Jungtinėje Karalystėje nėra įstatyminio įstatymų nustatyto įstatymų reglamentavimo apie AI . Būsimoji Labour vyriausybė AI Blueprint publikuotas nuo 13 dienos paprasčiausiai referuoja reglamentą su: “vyriausybė pradės išdėstyti savo prieigą dėl dirbtinio intelekto reguliavimo.”

Europe leads on AI regulation with its EU AI

Act entering into full force in August 2024 with potential fines of up to €35m or up to 7% of global annual revenue for some Big Tech companies in breach of the risk based rules.

Kinija pretenduoja tapti pasaulio AI lyderiu iki 2030 m. su aukščiausiais nuostoliais dėl AI valdymo. Pagal pagal GlobalData TS Lombard makroekonominius tyrimus, Kinijos vyriausybė parodė įspūdingą pabrėžimą dėl pagrindo skatinti AI inovacijas ir norą toleruoti kai kuriuos eksperimentus, , nors ir išskyrus CCP apibrėžtas ir kontroliuojamas sritis.

JAV , išrinktasis prezidentas Trumpas pateikė rinkiminį manifestą , kuriame pažadėjo padaryti pažangą AI plėtrai , taikant nežymų reguliavimą. Tai pasekmė pasibaigusio prezidento Bideno įsakymo dėl saugaus, saugaus, ir patikimo AI vystymo ir naudojimo , priimtas 2023 m. spalio mėnesį, kurio metu buvo įkurtas JAV AI saugumo institutas.

Kadangi AI yra pagal savo pats prigimties “beribis”.yra praktiškų “jokių reikalavimų” , kurių organizacijos gali imtis per trumpą laiką, pagal Taylor Martin.

Yra daugybė mokymosi galimybių , nuo instruktoriaus vedamų mokymų iki užsakomųjų e-learning kursų, tokių kaip yra vieni iš BSI pasiūlymų. Kadangi globalus reguliavimas įgauna formą, BSI AI valdymo sistema standartas (BS ISO 42001), išleistas prieš metus jau yra naudojamas organizacijų , įskaitant KPMG Australijoje. “Sertifikavimas padės organizacijoms būti pasirengusioms reguliuoti būsimąjį reguliavimą ” ” sako Taylor Martin.

Kitus AI rizikos valdymo standartus nuo 2017 m. rengia Tarptautinė Organizacija už standartizaciją (ISO) ir Tarptautinė Elektrotechnikos Komisija (IEC). Ir į Tayloro Martino pastabą apie pasiruošimą daugiau formaliam reguliavimui, ES AI Įstatymas labai remiasi ISO rizikos valdymo standartais ir ISO/IEC AI terminologijos standartais.

Businesses can devise devise their own AI good practise

Aside of of formal formal standartai, dauguma įmonių kuria savą interinę rizikos sąrangą, pagrįstą rizikos sistemomis. Bosch UK & Airija Steffenas Hoffmannas sako, kad kiekvienas reguliavimo standartas bus pirma reikalauja daugiau bendro supratimo apie AI potencialų rizikos ir veiksmą. Kaip bendrovė, “Bosch” pripažįsta ir riziką , tačiau taip pat žino,>kad šios sąlygos yra valdomos. Bendrovė sukūrė savąjį AI Etikos kodeksą , pagrįstą geriausia praktika kaip atramos tašką. Kurios centrinis prielaida yra tai, kad žmonės turėtų būti galutinis arbitras priimant bet kokius AI pagrįstus sprendimus. “Kartu su inovacijomis atsiranda socialinė atsakomybė, tai iš esmės yra Bosch DNA iš mūsų įkūrėjo ” sako Hoffmannas.

Prancūzijos telekomunikacijų gigantas Orange yra dar viena didelė korporacija , teikianti prioritetą atsakingai AI. “Skaidrumas ir atsakomybė yra laikas – mūsų algoritmai turi leisti naudotojams suprasti kaip priimami sprendimai ,

Symonsas sako, kad tai gali įtraukti dar daugiau į švietimą bendrovėms apie šališkumą , kurį AI gali įvesti , paaiškinti, kaip jų duomenys yra apdorojami , ir pateikti aiškumą dėl to, kur ir kaip tie duomenys yra saugomi. Įmonė pradėjo atsakingą GenAI sprendimą.Live Intelligence užsakovams, norintiems išnaudoti GenAI pranašumus be kompromituojančio duomenų saugumo.

Orange taip pat sukūrė Duomenų ir AI Etikos Tarybą , kurią sudaro 11 nepriklausomų ekspertų , kad ji patartų ir užtikrintų tai, “žmogus išliktų centrinis technologijų ir jų naudos šaltinis , ir tai yra paprastai svarbu, kad mes išliktume kontroliuojantys ,” sako Symonsas , kuris laiko atsakingą praktiką kaip verslo kritinę , nes ji tiesiogiai veikia organizacijos reputaciją ir ilgalaikę sėkmę.

Sally Epstein, vyriausioji inovacijų atstovė “Cambridge Consultants”, kuris yra giliųjų technologijų atstovas IT paslaugų kompanijos Cap Gemini sutinka , kad įmonės , diegiančios geriausios praktikos nuostatas galėtų susidurti prieš konkurenciją. Epšteinas įspėja prieš ignoravimą atsakingos AI principų , brėždamas lygiagretę su genetiškai modifikuotų sėklų sivystymu .

” Mokslas , kuriuo paremtas GM maistas , buvo iš esmės geras, bet visuomenės pasitikėjimo trūkumas stabdė technologiją . Po dešimtmečio mes vis dar jaučiame šios technologijos pasekmes, technologija, kuri turi potencialą sumažinti pesticidų, herbicidų, ir trąšų kiekį” , sako Epšteinas.

Kaip ir GM maisto produktų atveju, Epšteinas aukščiau už viską iškelia naudotojų pasitikėjimą . “Jei žmonės nepasitiki AI, jie jos nenaudos , nepriklausomai nuo to, kokia pažangi ar naudinga būtų ji ” , – priduria ji.

Pasitikėjimas prasideda nuo tikslais pagrįstų pritaikymų, sako Ulfas Perssonas, Ulf Persson, AI programinės įrangos įmonės ABBY generalinis direktorius. “Pritaikyti AI sprendimai , kurie atsako į realius verslo iššūkius , tuo pačiu užtikrinant išmatuojamus rezultatus ne tik padidina efektyvumą , bet ir sumažina rizikas, susijusias su žmogaus klaida arba šališkumu, kuris yra kritinis reguliuojamose pramonės šakose, tokiose kaip sveikatos priežiūra ir logistika,” sako Perssonas. ABBY turima AI pagrįsta išmaniuoju dokumentų apdorojimu padėjo kai kuriems klientams pristatyti prekių į rinką apie 95% greičiau ir sukūrė efektyvumo , kuris toliau tvirtina pasitikėjimą.

Transparentiškumas yra raktas į pasitikėjimo kūrimui AĮ, sako Nathanas Marloras, duomenų ir AĮ vadovas programinės įrangos paslaugų įmonėje Version 1. Jis rekomenduoja prioritetą teikti paaiškinamumui prie AI sprendimų dizaino. “Daugelio AI modelių, ypač tuose , kurie vadovaujami neuraliniais tinklais, techninis kompleksiškumas , dažnai apriboja jiems būdingą paaiškinamumą, dėl ko jų naudotojams sudėtinga suvokti kaip priimami sprendimai ” sako Marlor.

“AI yra panaudojamas kai kuriuose didelės svarbos scenarijuose , kurie gali pakeisti gyvenimo pasekmes – dėl to suprasti, kodėl tai AIŽmonės labiau tikėtina tikėtų pasitikėti AI , jei jie supranta , kaip jie priima sprendimus” , – priduria jis.

Tam prieštarauja tokios priemonės kaip kontrafaktiniai paaiškinimai, LIME (Local Interpretable Model-agnostic Explanations), ir SHAP (SHapley Additive exPlanations) galima panaudoti kad išskleistų šviesą šioms “juodųjų dėžių” sistemoms. “Nesvarbu, ar pagal LIME vietinius aproksimacijas SHAP kompleksines globalias įžvalgas, arba kontrafaktualius veiksmingus atsakomuosius duomenis, paaiškinama AI yra raktas į kūrimo AI sistemų , kurias galime tikrai suvokti ir jomis pasitikėti kada priimami sprendimai procesuose,” sako Marlor.

AI haliucinacijos dar labiau kelia riziką pakirsti pasitikėjimą AI. Antidotas , sako Marlor, yra švietimas. “Organizacijos turėtų teikti prioritetą vartotojų švietimui aiškiai informuodamos apie AI apribojimus , pateikiant gaires dėl išvesties patvirtinimo ir įgyvendinant mechanizmus , skirtus identifikuoti arba ištaisyti netikslumus” , – priduria jis.

Atsakingos AI koncepcija yra vis dar plaukianti, ir tikėtina, kad laikui bėgant kinta ir skirtinga kiekviename regione , todėl būtų sunku priversti verslą atsakyti pagal tai pačius standartus visame pasaulyje. Taigi, dėl konsensuso dėl atsakingos AI apibrėžimo gali būti vis dar nepakankamai prieinamas . Tačiau verslas privalo vis dar veikti nuo šiol , kad užtikrintų būsimą atitiktį.

Email newsletter icon

Sign up Share

Naujienų šaltinis

Dalintis:
0 0 balsai
Straipsnio vertinimas
guest
0 Komentarai
Seniausi
Naujausi Daugiausiai įvertinti
Inline Feedbacks
Rodyti visus komentarus

Taip pat skaitykite: