[go: nahoru, domu]

Googlovo ogrodje Secure AI Framework
(SAIF)

Umetna inteligenca, zlasti generativna umetna inteligenca, ima ogromen potencial. Inovacije napredujejo, zato panoga potrebuje varnostne standarde za odgovoren razvoj in uvedbo umetne inteligence. Zato smo predstavili konceptualno ogrodje Secure AI Framework (SAIF) za zaščito sistemov umetne inteligence.

Šest ključnih elementov ogrodja SAIF

Ogrodje SAIF je zasnovano, da obravnava najpomembnejša vprašanja strokovnjakov za varnost, kot so obvladovanje tveganj modelov umetne inteligence/strojnega učenja, varnost in zasebnost, ter tako zagotovi, da so modeli umetne inteligence privzeto varni ob implementaciji.

Širjenje močnih varnostnih temeljev na ekosistem umetne inteligence
Širjenje obsega zaznavanja in odzivanja za vključitev umetne inteligence v okolje tveganj v organizaciji
Avtomatizacija varnostnih mehanizmov, ki bodo na tekočem z obstoječimi in novimi grožnjami
Uskladitev kontrolnikov na ravni platforme za zagotavljanje dosledne varnosti v organizaciji
Prilagoditev kontrolnikov za prilagajanje obvladovanj in ustvarjanje hitrejših zank povratnih informacij za uvedbo umetne inteligence
Umeščanje tveganj sistemov umetne inteligence v kontekst povezanih poslovnih procesov
Prenos datoteke PDF
Omogočanje varnejšega
ekosistema

Z veseljem vam predstavljamo prve korake na naši poti k vzpostavitvi ekosistema SAIF za vlade, podjetja in organizacije, s katerimi želimo poskrbeti za razvoj ogrodja za varno uvedbo umetne inteligence, ki je primerna za vse.

Uvedba ogrodja SAIF pri vladah in organizacijah

Pri obvladovanju varnostnih tveganj na področju umetne inteligence sodelujemo z vladami in organizacijami. Naše sodelovanje z oblikovalci politike in organizacijami za standarde, kot je NIST, prispeva k razvoju regulativnih okvirov. Nedavno smo izpostavili vlogo, ki jo SAIF igra pri varovanju sistemov umetne inteligence na način, ki je skladen z zavezami Bele hiše glede umetne inteligence.

Širjenje ogrodja SAIF z zavezniki v panogi

Pri partnerjih in strankah spodbujamo panožno podporo za SAIF, za uporabnike gostimo delavnice na temo ogrodja SAIF in objavljamo najboljše postopke za varnost umetne inteligence. V sodelovanju z družbo Deloitte smo ustvarili belo knjigo o tem, kako lahko organizacije uporabljajo umetno inteligenco za reševanje varnostnih vprašanj.

Dodatni viri
Pogosta vprašanja o ogrodju SAIF

Kako sta povezana ogrodje SAIF in odgovorna umetna inteligenca?

Googlova naloga je odgovorno ustvarjanje umetne inteligence in opolnomočenje drugih, da bodo tudi oni delali enako. V naših načelih umetne inteligence, ki smo jih objavili leta 2018, je opisana naša zaveza k odgovornemu razvoju tehnologije na način, ki je zasnovan za varnost, omogoča odgovornost in upošteva visoke standarde znanstvene odličnosti. Odgovorna umetna inteligenca je naš splošni pristop, ki ima več vidikov, kot so »Poštenost« »Berljivost«, »Varnost« in »Zasebnost«, ki usmerjajo celoten razvoj izdelkov za Googlovo umetno inteligenco.

SAIF je naše ogrodje za ustvarjanje standardiziranega in celovitega pristopa k integriranju ukrepov za varnost in zasebnost v aplikacije, ki uporabljajo strojno učenje. Usklajeno je z vidikoma »Varnost« in »Zasebnost« s področja odgovornega ustvarjanja umetne inteligence. SAIF zagotavlja, da so aplikacije, ki uporabljajo strojno učenje, razvite na odgovoren način, ki upošteva razvijajoče se nevarnosti in pričakovanja uporabnikov.

Kako Google udejanja SAIF?

Google že od nekdaj spodbuja odgovoren razvoj umetne inteligence in kibernetske varnosti ter že več let oblikuje najboljše varnostne postopke za inovacije na področju umetne inteligence. Naše ogrodje Secure AI Framework je nastalo na podlagi izkušenj in najboljših postopkov, ki smo jih razvili in implementirali, ter odraža Googlov pristop k ustvarjanju strojnega učenja in aplikacij, ki uporabljajo generativno umetno inteligenco. Ta pristop uporablja odzivne, trajnostne in razširljive zaščite, ki skrbijo za varnost in zasebnost. Ogrodje SAIF bomo še naprej razvijali in oblikovali, da bomo lahko obravnavali nova tveganja, spreminjajoča se okolja in napredke na področju umetne inteligence.

Kako lahko uporabniki implementirajo ogrodje?

Oglejte si naš hitri vodnik za implementacijo ogrodja SAIF:

  • 1. korak – razumevanje uporabe
    • Če razumete, katero poslovno vprašanje bo rešila umetna inteligenca in kateri podatki so potrebni za usposabljanje modela, boste lažje oblikovali pravilnik, protokole in kontrolnike, ki jih je treba implementirati kot del ogrodja SAIF.
  • 2. korak – oblikovanje skupine
    • Pri razvoju in uvedbi sistemov umetne inteligence gre za večdisciplinarna prizadevanja, enako kot pri tradicionalnih sistemih.
    • Sistemi umetne inteligence so pogosto zapleteni in nepregledni, imajo veliko premičnih delov, uporabljajo velike količine podatkov, porabljajo veliko virov in omogočajo sprejemanje odločitev na podlagi presoje, poleg tega pa lahko ustvarijo novo vsebino, ki je lahko žaljiva, škodljiva ali pa utrjuje stereotipe in družbene predsodke.
    • Oblikujte ustrezno večfunkcijsko skupino, ki bo poskrbela, da se bo vprašanja na področju varnosti, zasebnosti, tveganja in skladnosti obravnavalo že od začetka.
  • 3. korak – seznanitev z osnovami umetne inteligence
    • Pri ocenjevanju ustrezne poslovne uporabe, različnih in razvijajočih se zapletenosti, tveganj ter varnostnih kontrolnikov je ključnega pomena, da vsi sodelujoči razumejo osnove življenjskega cikla razvoja modela umetne inteligence, zasnovo in logiko metodologij modela, vključno z zmožnostmi, prednostmi in omejitvami.
  • 4. korak – uporaba šestih ključnih elementov ogrodja SAIF (navedeni so zgoraj)
    • Ti elementi se ne uporabljajo v kronološkem zaporedju.

Kje lahko najdem več informacij o ogrodju SAIF in tem, kako ga uporabim v svojem podjetju ali entiteti?

Spremljajte novosti. Google bo še naprej oblikoval ter delil vire, smernice in orodja za Secure AI Framework ter druge najboljše postopke za razvoj aplikacij z umetno inteligenco.

Zakaj podpiramo varno skupnost za umetno inteligenco za vse

Kot eno od prvih podjetij, ki je oblikovalo načela umetne inteligence, smo postavili standard za odgovorno umetno inteligenco. Ta standard usmerja razvoj naših izdelkov, da bodo varni. Zagovarjamo in razvijamo panožne okvire, da bi poskrbeli za večjo varnost. Ugotovili smo, da je za dolgoročni uspeh ključnega pomena oblikovati skupnost, ki bo poskrbela za razvoj. Zato z veseljem oblikujemo skupnost SAIF za vse.

Izboljšave varnosti v spletu

Preberite več o tem, kako ščitimo več ljudi v spletu kot kdor koli drug na svetu.