This is the Trace Id: 886482415918d96d152fb0080c3f8a7b

Příručka Microsoftu pro zabezpečení podniku využívajícího umělou inteligenci: Začínáme

Žena používající dotykovou obrazovku.

Začínáme s využitím AI

Umělá inteligence (AI) mění způsob fungování firem a přináší nové možnosti inovací, ale také nová rizika. Od stínové AI (neoficiální využívání nástrojů bez dohledu) až po útoky pomocí manipulace výzev — a v návaznosti na vyvíjející se regulace, jako je EU AI Act— musí organizace těmto výzvám čelit, aby mohly AI využívat bezpečně.

Tato příručka pojednává o rizicích spojených s umělou inteligencí: únik dat, nově vznikající hrozby a výzvy s dodržováním předpisů v souvislosti s jedinečnými riziky agentní AI. Zároveň poskytuje doprovodné materiály a praktické kroky vycházející z rámce pro zavádění AI. Pro hlubší přehledy a akční kroky si stáhněte příručku.

AI je revoluční, ale pouze pokud ji dokážete zabezpečit. Pusťme se do toho.

Organizace postupně přijímají AI, a lídři tak musí čelit třemi klíčovým výzvám:
  • 80 % lídrů označuje únik dat za hlavní hrozbu. 1 Nástroje stínové AI — použitá bez schválení IT — může odhalit citlivé informace a zvýšit riziko porušení zásad.
  • 88 % organizací se bojí o manipulaci systémů AI ze strany špatných aktérů. 2 Útoky jako útoky pomocí manipulace výzev zneužívají ohrožení zabezpečení v systémech AI a zdůrazňují potřebu proaktivní obrany.
  • 52 % lídrů uznává nejistotu ohledně orientace v regulacích AI. 3 Shoda s rámci, jako je EU AI Act, je klíčová pro budování důvěry a udržení tempa inovací.

Agentní AI nabízí transformační potenciál, ale její autonomie přináší jedinečné výzvy v zabezpečení, které vyžadují proaktivní řízení rizik. Níže jsou klíčová rizika a strategie zaměřené na jejich řešení:

Halucinace a neúmyslné výstupy

Systémy agentní AI mohou generovat nepřesné, zastaralé nebo nesouladné výstupy, které vedou k narušením provozu nebo špatnému rozhodování.

V rámci boje s těmito riziky by měly organizace zavést přísné procesy monitorování, aby revidovaly výstupy generované pomocí AI a zajistily tak správnost a relevanci. Pravidelná aktualizaci tréninkových dat zajišťuje soulad s aktuálními informacemi a eskalační cesty pro složité případy umožňují lidský zásah, když je to potřeba. Lidský dozor je nadále klíčový, aby byly operace řízené umělou inteligencí spolehlivé.

Přílišné spoléhání na rozhodnutí AI

Slepá důvěra v systémy agentní AI může vést k ohrožení zabezpečení v případě, že budou uživatelé bez ověření následovat výstupy.

Organizace by měly u důležitých rozhodnutí ovlivněných AI zavést zásady vyžadující kontrolu člověkem. Školení zaměstnanců o omezeních AI podporuje informovanou skepsi, čímž se snižuje pravděpodobnost chyb. Kombinace přehledů AI s lidským úsudkem prostřednictvím vícestupňových rozhodovacích procesů posiluje celkovou odolnost a předchází přílišné závislosti na AI.

Vektory nových útoků

Autonomie a adaptabilita agentní AI vytváří příležitosti pro útočníky ke zneužití ohrožení zabezpečení, což zavádí provozní i systémová rizika.

Provozní rizika zahrnují manipulaci systémů AI, aby prováděly škodlivé akce, jako jsou neautorizované úkoly nebo pokusy phishing. Organizace proti těmto rizikům mohou bojovat pomocí implementace robustních bezpečnostních opatření, včetně detekce anomálií v reálném čase, šifrování a přísného řízení přístupu.
Systémová rizika vyvstávají, když napadení agenti narušují propojené systémy, což může vést k řetězovým selháním. Záložní mechanismy, protokoly redundance a pravidelné audity — v souladu s rámcem kybernetické bezpečnosti, jako je NIST— pomáhají tyto hrozby minimalizovat a posilují obranu proti cíleným útokům.

Zodpovědnost a závazek

Agentní AI často funguje bez přímého lidského dohledu, což vyvolává složité otázky ohledně zodpovědnosti za chyby a selhání.

Organizace by měly definovat jasný rámec odpovědnosti, které stanoví role a povinnosti za výsledky související s AI. Transparentní dokumentace procesů rozhodování na základě AI podporuje identifikaci chyb a určení odpovědnosti. Spolupráce s právními týmy zajišťuje dodržování regulací a přijetí etických standardů pro zásady správného řízení AI buduje důvěru a snižuje reputační rizika.

S novými inovacemi AI, jako jsou agenti, musí organizace vybudovat silné základy na principech Nulové důvěry (Zero Trust) — „nikdy nedůvěřujte, vždy ověřujte.“ Tento přístup pomáhá zajistit, aby každá interakce byla ověřena, autorizována a průběžně monitorována. Ačkoliv dosažení Nulové důvěry vyžaduje času, přijetí fázované strategie umožňuje postupný pokrok a buduje posiluje důvěru v bezpečnou integraci AI.

Standardy pro přijetí AI od Microsoftu se zaměřuje na tři klíčové fáze: Spravovat AI, řídit AI a zabezpečit AI.

Reakcí na tyto oblasti mohou organizace položit základy zodpovědného použiti AI, zatímco bojují s hlavními riziky.

Pro úspěch je klíčové dát prioritu lidem, školením zaměstnancům, aby rozpoznali rizika AI a bezpečně používali schválené nástroje. Podporujte spolupráci mezi IT, bezpečnostními a obchodními týmy, aby byla zajištěna jednotná strategie. Podporujte transparentnost otevřenou komunikací o svých iniciativách v oblasti zabezpečení AI, abyste vybudovali důvěru a prokázali vedení.

S správnou strategií, založenou na principech Nulové důvěry, můžete bojovat s riziky, odemknout inovaci a s jistotou se orientovat v neustále se vyvíjejícím prostředí AI.

Více na téma zabezpečení

Navigace světem kybernetických hrozeb a posílení obrany v éře AI

Pokroky v oblasti umělé inteligence (AI) představují nové hrozby a tím i příležitosti pro kybernetickou bezpečnost. Zjistěte, jak aktéři hrozeb využívají AI k provádění sofistikovanějších útoků, a pak si projděte osvědčené postupy, které pomáhají chránit před tradičními kybernetickými hrozbami a hrozbami využívajícími AI.

CISO využívající umělou inteligenci: Umožněte lepší strategie pomocí přehledů z analýzy hrozeb

Ředitelé pro zabezpečení informací (CISO), kteří si osvojí generativní AI, získají tři hlavní výhody: lepší přehled o hrozbách, zrychlenou reakci na hrozby a pomoc při strategickém rozhodování. Seznamte se se třemi ukázkovými scénáři a zjistěte, proč 85 % ředitelů CISO považuje AI za klíčovou pro zabezpečení.

Studie Microsoft Digital Defense Report 2024

Edice studie Microsoft Digital Defense Report pro rok 2024 zkoumá vyvíjející se kybernetické hrozby z řad národních skupin hrozeb a kyberzločinců, poskytuje nové přehledy a doprovodné materiály k vylepšení odolnosti a posílení obrany a objevuje rostoucí dopad generativní AI na kybernetickou bezpečnost

Sledujte zabezpečení od Microsoftu