Кибер аюулгүй байдлын мэргэжилтэн хиймэл хиймэл оюун ухааны хэрэгслийг ашиглан аюул заналхийлэлд дүн шинжилгээ хийж байна.

Генератив AI-г кибер аюулгүй байдалд хэрхэн ашиглах вэ?

Танилцуулга

Generative AI буюу шинэ контент эсвэл таамаглал үүсгэх чадвартай хиймэл оюун ухааны системүүд нь кибер аюулгүй байдлыг өөрчлөх хүчин болж гарч ирж байна. OpenAI-ийн GPT-4 зэрэг хэрэгслүүд нь нарийн төвөгтэй өгөгдөлд дүн шинжилгээ хийх, хүнтэй төстэй текст үүсгэх чадварыг харуулж, кибер аюулаас хамгаалах шинэ арга барилыг бий болгосон. Цахим аюулгүй байдлын мэргэжилтнүүд болон бизнесийн шийдвэр гаргагчид олон салбар дахь хиймэл оюун ухаан нь хөгжиж буй халдлагаас хамгаалах хамгаалалтыг хэрхэн бэхжүүлж болохыг судалж байна. Санхүү, эрүүл мэндээс эхлээд жижиглэнгийн худалдаа, засгийн газар хүртэл бүх салбар дахь байгууллагууд фишинг хийх нарийн оролдлого, хортой программ хангамж болон хиймэл хиймэл оюун ухаантай тэмцэхэд туслах бусад аюулуудтай тулгардаг. Энэхүү цагаан баримт бичигт бид үүсмэл хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглаж болохыг , бодит амьдрал дээрх хэрэглүүрүүд, ирээдүйн боломжууд болон үрчлүүлэхэд анхаарах чухал зүйлсийг онцолсон болно.

Generative AI нь уламжлалт аналитик хиймэл оюун ухаанаас ялгаатай бөгөөд зөвхөн хэв маягийг илрүүлээд зогсохгүй бий болгодог - хамгаалалтыг сургах зорилгоор халдлагыг дуурайлган хийх эсвэл аюулгүй байдлын нарийн төвөгтэй өгөгдөлд байгалийн хэлээр тайлбар хийх эсэхээс үл хамааран. Энэхүү хос чадвар нь түүнийг хоёр талдаа иртэй сэлэм болгодог: энэ нь хүчирхэг шинэ хамгаалалтын хэрэгслийг санал болгодог боловч аюул заналхийлэгчид үүнийг ашиглаж болно. Дараах хэсгүүдэд фишинг илрүүлэлтийг автоматжуулахаас эхлээд ослын хариу арга хэмжээг сайжруулах хүртэл кибер аюулгүй байдалд хиймэл хиймэл оюун ухааныг ашиглах өргөн хүрээний тохиолдлуудыг судлах болно. Бид мөн эдгээр AI инновацийн үр өгөөжийн талаар, мөн байгууллагуудын удирдах ёстой эрсдэлээс (AI "хий үзэгдэл" эсвэл сөрөг талуудын буруугаар ашиглах) талаар ярилцдаг. Эцэст нь, бид бизнесүүдэд үүсмэл хиймэл оюун ухааныг кибер аюулгүй байдлын стратегидаа үнэлж, хариуцлагатайгаар нэгтгэхэд нь туслах практик зөвлөмжийг өгдөг.

Кибер аюулгүй байдлын үеийн хиймэл оюун ухаан: тойм

Кибер аюулгүй байдлын үүсгэгч хиймэл оюун ухаан гэдэг нь AI загваруудыг хэлдэг - ихэвчлэн том хэлний загварууд эсвэл бусад мэдрэлийн сүлжээнүүд - эдгээр нь аюулгүй байдлын даалгавруудад туслах ойлголт, зөвлөмж, код эсвэл бүр синтетик өгөгдлийг үүсгэж чаддаг. Урьдчилан таамагласан загваруудаас ялгаатай нь үүсгэгч хиймэл оюун ухаан нь сургалтын өгөгдөл дээрээ үндэслэн хувилбаруудыг дуурайж, хүн унших боломжтой гаралтыг (жишээ нь тайлан, сэрэмжлүүлэг эсвэл бүр хортой кодын дээж) гаргаж чаддаг. урьд өмнөхөөсөө илүү динамик байдлаар аюул заналхийллийг урьдчилан таамаглах, илрүүлэх, хариу үйлдэл үзүүлэхэд ашиглаж байна Кибер аюулгүй байдал дахь хиймэл оюун ухаан гэж юу вэ? - Palo Alto Networks ). Жишээлбэл, үүсгэгч загварууд нь асар том бүртгэлүүд эсвэл аюулын тагнуулын агуулахуудад дүн шинжилгээ хийж, товч хураангуй эсвэл санал болгож буй үйлдлийг гаргаж, аюулгүй байдлын багуудад хиймэл оюун ухааны "туслах" үүрэг гүйцэтгэдэг.

Кибер хамгаалалтад зориулсан хиймэл хиймэл оюун ухааныг эрт хэрэгжүүлсэн нь ирээдүйг харуулж байна. 2023 онд Майкрософт Security Copilot-ийг бөгөөд зөрчлийг илрүүлэх, Microsoft-ын өдөр бүр боловсруулдаг 65 их наяд дохиог шүүж авахад туслах болно ( Microsoft Security Copilot нь кибер аюулгүй байдлын шинэ GPT-4 AI туслах юм | The Verge ). Шинжээчид энэ системийг байгалийн хэлээр (жишээ нь: "Сүүлийн 24 цагийн аюулгүй байдлын бүх тохиолдлыг нэгтгэн дүгнэх" ) зааж өгөх боломжтой бөгөөд туслах нисгэгч ашигтай өгүүллийн хураангуйг гаргах болно. Үүний нэгэн адил Google-ийн Threat Intelligence AI нь Gemini хэмээх үүсгэгч загварыг ашиглан Google-ийн аюул заналхийллийн асар том мэдээллийн баазаар дамжуулан харилцан ярианы хайлтыг идэвхжүүлж, сэжигтэй кодыг хурдан задлан шинжилж, илрүүлсэн олдворуудыг нэгтгэн үзүүлж, хорлонтой программыг хайгчдад тусалдаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Эдгээр жишээнүүд нь боломжуудыг харуулж байна: үүсгэгч хиймэл оюун ухаан нь кибер аюулгүй байдлын нарийн төвөгтэй, том хэмжээний өгөгдлийг шингээж, ойлголтыг хүртээмжтэй хэлбэрээр танилцуулж, шийдвэр гаргах үйл явцыг хурдасгадаг.

Үүний зэрэгцээ, хиймэл хиймэл оюун ухаан нь маш бодитой хуурамч контентыг бий болгож чаддаг бөгөөд энэ нь симуляци хийх, сургах (харамсалтай нь нийгмийн инженерчлэл хийдэг халдагчдад) ач тус юм. Ашиглалтын тодорхой тохиолдлуудыг үргэлжлүүлэх тусам хиймэл хиймэл оюун ухаан нь нэгтгэх , дүн шинжилгээ хийх нь түүний олон кибер аюулгүй байдлын хэрэглээний үндэс суурь болохыг олж харах болно. Доор бид фишингээс урьдчилан сэргийлэхээс эхлээд аюулгүй программ хангамжийг хөгжүүлэх хүртэлх хэрэглээний гол тохиолдлуудад тус бүрийг салбаруудад хэрхэн ашиглаж байгаа жишээнүүдийг авч үзэх болно.

Кибер аюулгүй байдлын үеийн хиймэл оюун ухааны үндсэн хэрэглээ

Зураг: Кибер аюулгүй байдалд хиймэл хиймэл оюун ухааныг ашиглах гол тохиолдлуудад аюулгүй байдлын багуудад зориулсан хиймэл оюун ухааны туслах нисгэгчид, кодын эмзэг байдлын шинжилгээ, дасан зохицох аюул илрүүлэх, тэг өдрийн халдлагын загварчлал, сайжруулсан биометрийн аюулгүй байдал, фишинг илрүүлэх зэрэг орно ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээ] ).

Фишинг илрүүлэх, урьдчилан сэргийлэх

Фишинг нь хамгийн өргөн тархсан кибер аюулуудын нэг хэвээр байгаа бөгөөд хэрэглэгчдийг хортой холбоос дээр дарах эсвэл итгэмжлэлийг задруулахад хүргэдэг. фишингийн оролдлогыг илрүүлэх , амжилттай халдлагаас урьдчилан сэргийлэхийн тулд хэрэглэгчийн сургалтыг сайжруулах зорилгоор ашиглагдаж байна Хамгаалах тал дээр хиймэл оюун ухаантай загварууд нь дүрэмд суурилсан шүүлтүүрүүд алдаж болзошгүй фишингийн шинж тэмдгийг илрүүлэхийн тулд имэйлийн агуулга болон илгээгчийн зан төлөвт дүн шинжилгээ хийх боломжтой. Хуурамч, залилан мэхэлсэн цахим шуудангийн томоохон мэдээллийн багцаас суралцсанаар үүсгүүрийн загвар нь дүрмийн болон зөв бичгийн дүрмийн алдааг өгөхөө больсон ч гэсэн заль мэхийг илтгэх өнгө аяс, үг хэллэг, контекстийн гажуудлыг тэмдэглэж чадна. Үнэн хэрэгтээ Пало Алто Сүлжээний судлаачид хиймэл хиймэл оюун ухаан нь "илрэгдэхгүй байж болзошгүй фишинг цахим шуудангийн нарийн шинж тэмдгүүдийг" тодорхойлж, байгууллагуудыг луйварчдаас нэг алхам түрүүлэхэд тусалдаг гэдгийг тэмдэглэж байна ( Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ).

Аюулгүй байдлын багууд мөн фишинг халдлагыг дуурайж, сургалт, дүн шинжилгээ хийх зорилгоор хиймэл хиймэл оюун ухааныг ашиглаж байна. Жишээлбэл, Ironscales нь GPT-ээр ажилладаг фишинг симуляцийн хэрэглүүрийг нэвтрүүлсэн бөгөөд энэ нь байгууллагын ажилчдад тохируулсан хуурамч фишинг имэйлийг автоматаар үүсгэдэг ( Цахилгаан аюулгүй байдлын үүсгүүрийн хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Эдгээр хиймэл оюун ухаанаар урласан цахим шуудан нь халдагчдын хамгийн сүүлийн үеийн тактикийг тусгаж, ажилтнуудад фишин контентыг илрүүлэх бодит дадлага олгох боломжийг олгодог. Халдлага үйлдэгчид өөрсдөө хиймэл оюун ухааныг нэвтрүүлж, илүү үнэмшилтэй төөрөгдөл бий болгодог тул ийм хувийн сургалт маш чухал юм. Төрөлх хиймэл оюун ухаан нь маш өнгөлсөн фишинг мессежийг гаргаж чаддаг ч (Англи хэлийг амархан олж хардаг байсан үе ард хоцорсон), хамгаалагчид хиймэл оюун ухаан нь ялагдашгүй гэдгийг олж мэдсэн. 2024 онд IBM Аюулгүй байдлын судлаачид хүний ​​бичсэн фишинг имэйлийг хиймэл оюун ухаанаар үүсгэсэн цахим шуудантай харьцуулах туршилт явуулсан бөгөөд "Гайхалтай нь, хиймэл оюун ухаанаар үүсгэсэн имэйлүүд нь зөв дүрмийн дагуу байсан ч илрүүлэхэд хялбар хэвээр байсан" ( Цахим аюулгүй байдлын 6 ашиглалтын тохиолдол [+ Жишээнүүд] ). Энэ нь хиймэл оюун ухааны тусламжтайгаар илрүүлсэн хүний ​​зөн совин нь хиймэл оюун ухаанаар бичигдсэн залилан дахь үл нийцэх байдал эсвэл мета өгөгдлийн дохиог таних боломжтой хэвээр байгааг харуулж байна.

Хиймэл хиймэл оюун ухаан нь фишинг хамгаалахад өөр аргаар тусалдаг. сэжигтэй имэйлийг шалгах автомат хариулт эсвэл шүүлтүүр үүсгэхэд ашиглаж болно Жишээлбэл, хиймэл оюун ухааны систем нь илгээгчийн хууль ёсны эсэхийг баталгаажуулахын тулд тодорхой асуулга бүхий имэйлд хариу илгээх эсвэл хамгаалагдсан хязгаарлагдмал орчинд байгаа имэйлийн холбоос болон хавсралтад дүн шинжилгээ хийхийн тулд LLM ашиглаж, улмаар аливаа хорлонтой санааг нэгтгэн дүгнэж болно. NVIDIA-ийн Morpheus нь хиймэл оюун ухааны хүчийг энэ талбарт харуулж байна – энэ нь цахим шуудангаар хурдан дүн шинжилгээ хийх, ангилахын тулд generative NLP загваруудыг ашигладаг бөгөөд уламжлалт аюулгүй байдлын хэрэгслүүдтэй харьцуулахад 21% (Цахим аюулгүй байдлын 6 ашиглалтын тохиолдол [+ Жишээ нь] ). Морфеус нь хэрэглэгчийн харилцааны хэв маягийг хүртэл профайл хийж, ер бусын зан үйлийг (хэрэглэгч гэнэт олон гадаад хаяг руу имэйл илгээх гэх мэт) илрүүлдэг бөгөөд энэ нь фишинг имэйл илгээж буй бүртгэл алдагдсаныг илтгэнэ.

Практикт салбар даяарх компаниуд нийгмийн инженерчлэлийн халдлагаас цахим шуудан болон вэб траффикийг шүүдэг хиймэл оюун ухаанд итгэж эхэлж байна. Жишээлбэл, санхүүгийн фирмүүд утсаар залилан мэхлэхэд хүргэж болзошгүй дүр эсгэх оролдлогыг илрүүлэхийн тулд хиймэл хиймэл оюун ухааныг ашигладаг бол эрүүл мэндийн үйлчилгээ үзүүлэгчид өвчтөний мэдээллийг фишингтэй холбоотой зөрчлөөс хамгаалахын тулд хиймэл оюун ухааныг ашигладаг. Бодит фишинг хувилбаруудыг үүсгэж, хорлонтой мессежийн шинж тэмдгийг олж мэдсэнээр хиймэл оюун ухаан нь фишингээс урьдчилан сэргийлэх стратегид хүчирхэг давхарга нэмдэг. Авсан зүйл: Халдагчид тоглоомоо сайжруулахын тулд ижил технологийг ашигладаг байсан ч хиймэл оюун ухаан нь фишинг халдлагыг илүү хурдан бөгөөд илүү нарийвчлалтай илрүүлж, устгахад тусалдаг

Хортой програм илрүүлэх ба аюулын шинжилгээ

Орчин үеийн хортой програмууд байнга хөгжиж байдаг - халдагчид вирусны эсрэг гарын үсгийг тойрч гарахын тулд шинэ хувилбаруудыг үүсгэдэг эсвэл кодыг бүдгэрүүлдэг. Generative AI нь хортой програмыг илрүүлэх, түүний зан төлөвийг ойлгох шинэ арга техникийг санал болгодог. Нэг арга бол хиймэл оюун ухааныг ашиглан хортой програмын "муу ихэр"-ийг үүсгэх явдал юм: аюулгүй байдлын судлаачид мэдэгдэж буй хортой програмын дээжийг үүсгэгч загварт оруулж, уг хортой програмын мутацид орсон олон хувилбаруудыг үүсгэх боломжтой. Ингэснээр тэд халдагчийн хийж болох өөрчлөлтүүдийг үр дүнтэй урьдчилан таамаглаж байна. Эдгээр хиймэл оюун ухаанаар үүсгэсэн хувилбаруудыг дараа нь вирусны эсрэг болон халдлагыг илрүүлэх системийг сургахад ашиглаж болох бөгөөд ингэснээр хортой програмын өөрчилсөн хувилбарууд хүртэл зэрлэг байгальд танигдах боломжтой ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээнүүд] ). Энэхүү идэвхтэй стратеги нь хакерууд илрүүлэхээс зайлсхийхийн тулд хортой програмаа бага зэрэг өөрчилдөг мөчлөгийг таслахад тусалдаг бөгөөд хамгаалагчид бүртээ шинэ гарын үсэг бичихээр оролдох ёстой. Салбарын нэгэн подкаст дээр дурдсанчлан, аюулгүй байдлын мэргэжилтнүүд одоо "сүлжээний траффикийг дуурайж, нарийн төвөгтэй халдлагуудыг дуурайдаг хортой ачааллыг бий болгох" , ганц тохиолдлоос илүүтэйгээр бүхэл бүтэн гэр бүлийн аюулаас хамгаалах хамгаалалтаа туршиж байна. Энэхүү дасан зохицох заналхийллийг илрүүлэх нь аюулгүй байдлын хэрэгслүүд нь нэвтэрч орох полиморф хортой програмыг илүү тэсвэртэй болгодог гэсэн үг юм.

Илрүүлэхээс гадна үүсгэгч хиймэл оюун ухаан нь хортой програмын шинжилгээ болон урвуу инженерчлэлд бөгөөд энэ нь заналхийллийн шинжээчдийн хувьд хөдөлмөр их шаардсан ажил юм. Том хэлний загварт сэжигтэй код эсвэл скриптийг шалгаж, код нь юу хийх гэж байгааг энгийн хэлээр тайлбарлах даалгавар өгч болно. Бодит жишээ бол VirusTotal Code Insight Google-ийн VirusTotal-ийн онцлог бөгөөд үүсмэл хиймэл оюун ухааны загварыг (Google-ийн Sec-PaLM) ашиглаж болзошгүй хортой кодын байгалийн хэлээр хураангуйг гаргадаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Энэ нь үндсэндээ "аюулгүй байдлын кодчилолд зориулагдсан ChatGPT-ийн нэг төрөл" бөгөөд хүний ​​шинжээчдэд аюул заналыг ойлгоход нь туслах зорилгоор 24/7 цагийн турш ажилладаг хиймэл оюун ухааны хортой програмын шинжээчийн үүрэг гүйцэтгэдэг ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээнүүд] ). Аюулгүй байдлын багийн гишүүн танил бус скрипт эсвэл хоёртын кодыг судлахын оронд хиймэл оюун ухаанаас нэн даруй тайлбар авах боломжтой - жишээлбэл, "Энэ скрипт нь XYZ серверээс файл татаж аваад дараа нь системийн тохиргоог өөрчлөхийг оролддог нь хортой програмын үйлдлийг харуулж байна." Шинжээчид шинэ хортой программыг урьд өмнөхөөсөө илүү хурдан шалгаж, ойлгох боломжтой тул энэ нь ослын хариу үйлдлийг эрс хурдасгадаг.

асар их мэдээллийн багц дахь хортой програмыг тодорхойлоход ашигладаг . Уламжлалт вирусны эсрэг хөдөлгүүрүүд нь мэдэгдэж буй гарын үсэг бүхий файлуудыг скан хийдэг боловч үүсгэгч загвар нь файлын шинж чанарыг үнэлж, сурсан хэв маягт үндэслэн энэ нь хортой эсэхийг урьдчилан таамаглах боломжтой. Олон тэрбум файлын шинж чанаруудыг (хортой ба хор хөнөөлтэй) шинжилснээр хиймэл оюун ухаан нь тодорхой гарын үсэг байхгүй тохиолдолд хортой санааг барьж чадна. Жишээлбэл, үүсгэгч загвар нь гүйцэтгэх файлыг сэжигтэй гэж тэмдэглэж болно, учир нь түүний зан төлөв нь хоёртын хувилбар нь шинэ байсан ч сургалтын явцад олж харсан ransomware-ийн бага зэрэг өөрчлөлт шиг "харагдана" Энэхүү зан үйлд суурилсан илрүүлэлт нь шинэ эсвэл тэг өдрийн хортой програмыг эсэргүүцэхэд тусалдаг. Google-ийн Threat Intelligence AI (Chronicle/Mandiant-ийн нэг хэсэг) нь өөрийн үүсгэсэн загвараа хортой кодыг шинжлэхэд ашигладаг бөгөөд "аюулгүй байдлын мэргэжилтнүүдэд хортой програм болон бусад төрлийн аюул заналхийлэлтэй тэмцэхэд илүү үр дүнтэй, үр дүнтэй тусалдаг" гэж мэдээлж байна. ( Үйлдвэрлэлийн хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглах вэ? Бодит 10 жишээ ).

Нөгөө талаас, бид халдагчид өөрөө дасан зохицох хортой программыг автоматаар үүсгэхийн тулд үүсгэгч AI-г ашиглаж болохыг бид хүлээн зөвшөөрөх ёстой. Үнэн хэрэгтээ, илрүүлэхэд илүү хэцүү хортой программыг хөгжүүлэхэд тусалдаг Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ). AI загварт вирусын эсрэг бүх мэдэгдэж байгаа шалгалтаас зайлсхийтэл хорт программыг дахин дахин өөрчлөхийг (файлын бүтэц, шифрлэлтийн аргуудыг өөрчлөх) зааварчилж болно. Энэхүү сөргөлдөөнтэй хэрэглээ нь улам бүр түгшүүр төрүүлж байна (заримдаа "AI-ээр ажилладаг хортой програм" эсвэл үйлчилгээ гэж полиморф хортой програм гэж нэрлэдэг). Ийм эрсдлийн талаар бид дараа нь ярих болно, гэхдээ энэ нь хиймэл оюун ухаан нь хамгаалагч болон халдагч нарын ашигладаг муур хулгана тоглоомын хэрэгсэл гэдгийг онцолж байна.

Ерөнхийдөө хиймэл хиймэл оюун ухаан нь аюулгүй байдлын багуудад халдагч шиг сэтгэх , шинэ аюул заналхийлэл, шийдлийг дотооддоо бий болгосноор хортой програмын хамгаалалтыг сайжруулдаг. Илрүүлэх түвшинг сайжруулахын тулд синтетик хортой програм үйлдвэрлэж байна уу, эсвэл сүлжээнд олдсон бодит хортой програмыг тайлбарлах, агуулахын тулд хиймэл оюун ухаан ашигладаг эсэхээс үл хамааран эдгээр арга нь бүх салбарт хэрэгжинэ. Банк нь AI-д суурилсан хортой програмын шинжилгээг ашиглан хүснэгтэн дэх сэжигтэй макро хурдан шинжилдэг бол үйлдвэрлэгч компани нь үйлдвэрлэлийн хяналтын системд чиглэсэн хортой программыг илрүүлэхийн тулд хиймэл оюун ухаанд найдаж болно. Уламжлалт хортой програмын шинжилгээг хиймэл хиймэл оюун ухаанаар нэмэгдүүлснээр байгууллагууд хортой програмын кампанит ажилд өмнөхөөсөө илүү хурдан, идэвхтэй хариу үйлдэл үзүүлэх боломжтой.

Аюулын тагнуул, автоматжуулсан дүн шинжилгээ

Байгууллагууд өдөр бүр аюул заналхийллийн тагнуулын мэдээллээр бөмбөгддөг - шинээр илрүүлсэн буулт хийх үзүүлэлтүүдийн (ОУОХ) мэдээллээс эхлээд шинээр гарч ирж буй хакерын тактикуудын талаархи шинжээчдийн тайлан хүртэл. Аюулгүй байдлын багуудын хувьд тулгамдсан асуудал бол энэхүү их хэмжээний мэдээллийг шүүж, хэрэгжүүлэх боломжтой ойлголтуудыг олж авах явдал юм. аюул заналхийллийн тагнуулын шинжилгээ, хэрэглээг автоматжуулахад үнэлж баршгүй ач холбогдолтой болж байна . Шинжээчид олон арван тайлан эсвэл өгөгдлийн сангийн оруулгуудыг гараар уншихын оронд AI ашиглан аюул заналхийлсэн мэдээллийг машины хурдаар нэгтгэн дүгнэж, контекст болгох боломжтой.

Үүний нэг тодорхой жишээ бол Google-ийн Mandiant болон VirusTotal-ын аюулын мэдээллийн сан бүхий Google-ийн үүсгэгч хиймэл оюун ухааныг (Gemini загвар) нэгтгэсэн Threat Intelligence Энэхүү хиймэл оюун ухаан нь “Google-н аюул заналхийллийн мэдээллийн асар их сангаас харилцан ярианы хайлт” , хэрэглэгчдэд аюул заналхийллийн талаар байгалийн асуулт асууж, тодорхой хариулт авах боломжийг олгодог ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Жишээлбэл, шинжээч "Манай салбар руу чиглэсэн аюул заналхийллийн бүлэг X-тэй холбоотой ямар нэгэн хортой програмыг бид харсан уу?" Гэж мөн хиймэл оюун ухаан нь холбогдох мэдээллийг татах бөгөөд магадгүй "Тийм ээ, X аюулын бүлэг нь өнгөрсөн сард Y хортой программыг ашиглан фишинг хийх кампанит ажилтай холбоотой байсан" , мөн уг хортой програмын үйл ажиллагааны хураангуйг тэмдэглэнэ. Энэ нь олон хэрэглүүр асуух эсвэл урт тайлан унших шаардлагатай ойлголтыг цуглуулах цагийг эрс багасгадаг.

аюул заналхийллийн чиг хандлагыг нэгтгэж, нэгтгэж чаддаг . Энэ нь олон мянган аюулгүй байдлын блог нийтлэлүүд, зөрчлийн мэдээ, хар вэбийн яриаг нэгтгэж, дараа нь CISO-ийн товч танилцуулгад зориулж "энэ долоо хоногийн шилдэг кибер аюул"-ын товч тоймыг гаргаж болно. Уламжлал ёсоор, энэ түвшний шинжилгээ, тайлагналын хувьд хүний ​​ихээхэн хүчин чармайлт шаардагддаг; Одоо сайн тохируулсан загвар нь хэдхэн секундын дотор ноорог гаргах боломжтой бөгөөд хүмүүс зөвхөн гаралтыг сайжруулдаг. хортой контент болон фишинг мэдээлэл зэрэг "том өгөгдлийн багц дахь тагнуулын дүн шинжилгээ, нэгтгэлийг хурдасгах" зорилгоор тусгайлан бүтээгдсэн хиймэл хиймэл оюун ухааны хэрэгсэл болох FoxGPT-ийг бүтээжээ Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Хиймэл оюун ухаан нь унших болон хөндлөн лавлагаа өгөх өгөгдлийг автоматжуулснаар аюул заналхийллийн тагнуулын багуудад шийдвэр гаргах, хариу арга хэмжээ авахад анхаарлаа төвлөрүүлэх боломжийг олгодог.

Хэрэглэх өөр нэг тохиолдол бол харилцан ярианы аюул занал агнуур . Аюулгүй байдлын шинжээч нь хиймэл оюун ухааны туслахтай харилцаж байна гэж төсөөлөөд үз дээ: "Сүүлийн 48 цагийн дотор мэдээлэл алдагдсан шинж тэмдгийг надад харуулаач" эсвэл "Энэ долоо хоногт халдагчид ямар цоорхойг ашиглаж байна вэ?" AI нь асуулгыг тайлбарлаж, дотоод бүртгэл эсвэл гадаад мэдээллийн эх сурвалжийг хайж, тодорхой хариулт эсвэл бүр холбогдох тохиолдлын жагсаалтыг гаргаж өгөх боломжтой. Энэ нь тийм ч хол биш юм - орчин үеийн аюулгүй байдлын мэдээлэл, үйл явдлын менежмент (SIEM) системүүд нь байгалийн хэлээр асуулга хийж эхэлж байна. Жишээлбэл, IBM-ийн QRadar аюулгүй байдлын иж бүрдэл нь 2024 онд AI-ийн үүсгэгч функцуудыг нэмж, шинжээчдэд ослын "довтолгооны замын хураангуйн талаар [...] тодорхой асуулт асууж" Энэ нь мөн автоматаар "аюулын өндөр ач холбогдолтой тагнуулын мэдээллийг тайлбарлаж, нэгтгэн дүгнэх" Цахилгаан аюулгүй байдлын үүсгүүрийн хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Үндсэндээ хиймэл хиймэл оюун ухаан нь олон тооны техникийн өгөгдлийг эрэлт хэрэгцээний дагуу чатын хэмжээний ойлголт болгон хувиргадаг.

Салбарын хувьд энэ нь маш том үр дагавартай. Эрүүл мэндийн тусламж үйлчилгээ үзүүлэгч нь шинжээчдийг бүтэн цагийн судалгаанд зориулалгүйгээр эмнэлгүүдэд чиглэсэн хамгийн сүүлийн үеийн ransomware бүлгүүдийн талаар мэдээлэл авахын тулд хиймэл оюун ухааныг ашиглаж болно. Жижиглэн худалдааны компанийн SOC нь дэлгүүрийн мэдээллийн технологийн ажилтнуудад мэдээлэл өгөхдөө шинэ POS-ийн хортой програмын тактикуудыг хурдан нэгтгэн дүгнэж чаддаг. Төрөл бүрийн агентлагуудын аюулын мэдээллийг нэгтгэх шаардлагатай засгийн газарт хиймэл оюун ухаан нь гол сэрэмжлүүлгийг онцолсон нэгдсэн тайлан гаргаж чаддаг. Аюултай байдлын тагнуулын мэдээлэл цуглуулах, тайлбарлах ажлыг автоматжуулснаар үүсмэл хиймэл оюун ухаан нь байгууллагууд шинээр гарч ирж буй аюул заналхийлэлд хурдан хариу үйлдэл үзүүлэхэд тусалдаг ба дуу чимээнд нуугдаж буй чухал анхааруулгыг алдах эрсдэлийг бууруулдаг.

Аюулгүй байдлын үйл ажиллагааны төв (SOC) оновчлол

Аюулгүй байдлын үйл ажиллагааны төвүүд нь сэрэмжлүүлгийн ядаргаа, мэдээллийн няцралтаараа алдартай. Ердийн SOC шинжээч өдөр бүр олон мянган сэрэмжлүүлэг, үйл явдлуудыг даван туулж болзошгүй тохиолдлуудыг судалж болно. Generative AI нь ердийн ажлыг автоматжуулж, ухаалаг хураангуйлах, тэр ч байтугай зарим хариултыг зохион байгуулах замаар SOC-д хүчийг үржүүлэгчийн үүрэг гүйцэтгэдэг. Зорилго нь SOC-ийн ажлын урсгалыг оновчтой болгох бөгөөд ингэснээр хүний ​​шинжээчид хамгийн чухал асуудалд анхаарлаа төвлөрүүлж, хиймэл оюун ухааны туслах нисгэгч үлдсэн асуудлыг шийдвэрлэхэд чиглэнэ.

Нэг томоохон програм бол хиймэл хиймэл оюун ухааныг "Аналистын туслах нисгэгч" . Өмнө дурьдсан Microsoft-ын Аюулгүй байдлын туслах нисгэгч нь үүнийг жишээ болгон харуулж байна: энэ нь "аюулгүй байдлын шинжээчийн ажилд орлуулахын оронд туслах зорилготой" бөгөөд ослын мөрдөн байцаалт, мэдээлэхэд тусалдаг ( Microsoft Security Copilot нь кибер аюулгүй байдлын шинэ GPT-4 AI туслах юм | The Verge ). Практикт энэ нь шинжээч нь галт ханын бүртгэл, үйл явдлын цагийн хуваарь эсвэл ослын тайлбар зэрэг түүхий өгөгдлийг оруулж, хиймэл оюун ухаанаас дүн шинжилгээ хийх эсвэл нэгтгэн дүгнэхийг хүсэх боломжтой гэсэн үг юм. "Өдрийн 2:35 цагт IP X-ээс сэжигтэй нэвтэрч Y сервер дээр амжилттай нэвтэрч, дараа нь ер бусын өгөгдөл дамжуулагдсан нь тухайн серверийг эвдэж болзошгүйг харуулж байна" гэх мэт өгүүлбэр гаргаж магадгүй Цаг хугацаа чухал үед энэ төрлийн шууд контекст утгаар үнэлж баршгүй чухал юм.

AI туслах нисгэгчид мөн 1-р түвшний гурвалсан ачааллыг бууруулахад тусалдаг. Салбарын мэдээллээс үзэхэд хамгаалалтын баг долоо хоногт 15 цагийг ердөө 22,000 дохиолол, худал эерэг мэдээллийг ялгахад зарцуулж чадна ( Цахим аюулгүй байдлын 6 ашиглалтын AI-ийг ашиглах тохиолдол [+ Жишээнүүд] ). Төрөл бүрийн хиймэл оюун ухааны тусламжтайгаар эдгээр сэрэмжлүүлгийн ихэнхийг автоматаар тохируулж болно – хиймэл оюун ухаан нь илт хор хөнөөлгүй (үндэслэл бүхий) сэрэмжлүүлгийг үгүйсгэж, үнэхээр анхаарал хандуулах шаардлагатайг тодруулж, заримдаа бүр тэргүүлэх ач холбогдлыг санал болгодог. Үнэн хэрэгтээ хиймэл оюун ухаан нь контекстийг ойлгоход хүч чадалтай байдаг нь тус тусдаа хор хөнөөлгүй мэт санагдах боловч хамтдаа олон үе шаттай халдлагыг илтгэдэг сэрэмжлүүлгийг хооронд нь холбож чадна гэсэн үг юм. Энэ нь "сэрэмжийн ядаргаа"-аас болж халдлагад өртөхгүй байх магадлалыг бууруулдаг.

SOC-ийн шинжээчид ан агнуур, мөрдөн байцаалтыг хурдасгахын тулд хиймэл оюун ухаантай байгалийн хэлийг ашиглаж байна. SentinelOne-ийн Purple AI платформ нь LLM-д суурилсан интерфэйсийг бодит цагийн аюулгүй байдлын өгөгдөлтэй хослуулсан бөгөөд шинжээчдэд "ангийн англи хэлээр аюул заналхийлсэн ээдрээтэй асуултуудыг асууж, хурдан, үнэн зөв хариулт авах" ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Шинжээч "Сүүлийн сард badguy123[.]com домэйнтэй ямар нэгэн төгсгөлийн цэг холбогдсон уу?" гэж , мөн Нил ягаан өнгийн AI хариу өгөхийн тулд логуудыг хайж олох болно. Энэ нь шинжээчийг өгөгдлийн сангийн асуулга эсвэл скрипт бичихээс хамгаалдаг - AI үүнийг бүрээсийн дор хийдэг. Энэ нь залуу шинжээчид өмнө нь асуулгын хэлээр ур чадвартай туршлагатай инженер шаарддаг ажлуудыг гүйцэтгэж, хиймэл оюун ухааны тусламжтайгаар багаа үр дүнтэйгээр ур чадвараа дээшлүүлж чадна . Үнэн хэрэгтээ, шинжээчид хиймэл хиймэл оюун ухааны удирдамж нь "тэдний ур чадвар, ур чадварыг дээшлүүлдэг" , учир нь одоо бага ажилтнууд хиймэл оюун ухаанаас хэрэгцээт кодчиллын дэмжлэг эсвэл дүн шинжилгээ хийх зөвлөгөө авах боломжтой болж, ахлах багийн гишүүдээс үргэлж тусламж хүсэх найдлага буурдаг ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээ] ).

SOC-ийн өөр нэг оновчлол бол ослын автоматжуулсан дүгнэлт, баримтжуулалт . Үйл явдлыг шийдвэрлэсний дараа хэн нэгэн тайлан бичих ёстой бөгөөд энэ нь олон хүнд уйтгартай санагддаг. Генератив хиймэл оюун ухаан нь шүүх эмнэлгийн өгөгдлийг (системийн бүртгэл, хортой програмын шинжилгээ, үйл ажиллагааны хугацаа) авч, ослын анхны тайланг гаргаж чадна. IBM QRadar-д энэхүү чадавхийг бүтээж байгаа бөгөөд ингэснээр "нэг товшилтоор" янз бүрийн оролцогч талуудад (удирдах ажилтнууд, мэдээллийн технологийн баг гэх мэт) тохиолдлын хураангуйг гаргах боломжтой болно ( Цахилгаан аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Энэ нь зөвхөн цаг хугацаа хэмнээд зогсохгүй тайланд юуг ч орхигдуулахгүй байх боломжийг олгоно, учир нь хиймэл оюун ухаан нь холбогдох бүх мэдээллийг тууштай багтааж чаддаг. Үүний нэгэн адил, дагаж мөрдөх, аудит хийхдээ хиймэл оюун ухаан нь ослын өгөгдөл дээр үндэслэн маягт эсвэл нотлох баримтын хүснэгтийг бөглөж болно.

Бодит ертөнцийн үр дүн анхаарал татахуйц байна. Swimlane-ийн хиймэл оюун ухаанд суурилсан SOAR (аюулгүй байдлын зохион байгуулалт, автоматжуулалт, хариу үйлдэл)-ийг эрт нэвтрүүлсэн хүмүүс бүтээмжийн асар их өсөлтийг мэдээлдэг – Жишээлбэл, Global Data Systems SecOps баг нь илүү том хэргийн ачааллыг удирдаж байгааг харсан; Нэг захирал бол хиймэл оюун ухаанаар ажилладаг автоматжуулалтгүйгээр 20 ажилтан авах магадлалтай" Цахилгаан аюулгүй байдалд үүсмэл хиймэл оюун ухаан хэрхэн ашиглагдах вэ ). Өөрөөр хэлбэл, SOC дахь хиймэл оюун ухаан нь хүчин чадлыг үржүүлж чадна . Үүлний аюулгүй байдлын сэрэмжлүүлгийг хариуцдаг технологийн компани эсвэл OT системд хяналт тавьдаг үйлдвэрлэлийн үйлдвэр аль ч салбарт SOC багууд хиймэл оюун ухааны туслахуудыг хүлээн авснаар илүү хурдан илрүүлж, хариу арга хэмжээ авч, алдаа дутагдлыг багасгаж, илүү үр ашигтай ажиллах боломжтой. Энэ нь илүү ухаалаг ажиллах тухай юм – машинд дахин давтагддаг, өгөгдөл их шаарддаг даалгавруудыг гүйцэтгэх боломжийг олгодог бөгөөд ингэснээр хүмүүс өөрсдийн зөн совин, мэдлэгээ хамгийн чухал газар ашиглах боломжтой болно.

Эмзэг байдлын менежмент ба аюул заналхийллийн загварчлал

Халдагчид ашиглаж болох програм хангамж эсвэл системийн сул талуудыг тодорхойлох, удирдах нь кибер аюулгүй байдлын үндсэн чиг үүрэг юм. Generative AI нь нээлтийг хурдасгах, нөхөөсийг эрэмбэлэх, тэр ч байтугай бэлэн байдлыг сайжруулахын тулд эдгээр эмзэг байдлын эсрэг халдлагыг дуурайлган хийх замаар эмзэг байдлын менежментийг сайжруулж байна. Нэг ёсондоо хиймэл оюун ухаан нь байгууллагуудад хуягныхаа цоорхойг илүү хурдан олж, засахад нь тусалдаг бөгөөд жинхэнэ халдагчдаас өмнө хамгаалалтыг идэвхтэй

Нэг чухал хэрэглүүр бол автоматжуулсан кодыг шалгах болон эмзэг байдлыг илрүүлэхэд . Том кодын баазууд (ялангуяа хуучин системүүд) нь ихэвчлэн анзаарагдахгүй аюулгүй байдлын алдаатай байдаг. Хиймэл оюун ухаантай загваруудыг аюулгүй кодчилол болон нийтлэг алдааны хэв маягт сургаж, дараа нь эх код эсвэл эмхэтгэсэн хоёртын хувилбарууд дээр ажиллуулж болзошгүй эмзэг байдлыг олох боломжтой. Жишээлбэл, NVIDIA-ийн судлаачид хуучирсан програм хангамжийн контейнеруудад дүн шинжилгээ хийж, "хүний ​​мэргэжилтнүүдээс 4 дахин хурдан" өндөр нарийвчлалтайгаар эмзэг байдлыг тодорхойлох боломжтой хиймэл хиймэл оюун ухааны шугамыг боловсруулсан. ( Кибер аюулгүй байдлын үүсгүүрийн хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Хиймэл оюун ухаан нь үндсэндээ аюулгүй код ямар байдгийг олж мэдсэн бөгөөд эрсдэлтэй функцууд болон сангуудыг тэмдэглэхийн тулд олон арван жилийн настай программ хангамжийг сканнердаж, гарын авлагын кодын аудитын ердийн удаашралтай үйл явцыг ихээхэн хурдасгасан. Энэ төрлийн хэрэгсэл нь санхүү, засгийн газар зэрэг томоохон, хуучин кодын санд тулгуурладаг салбаруудын хувьд тоглоомыг өөрчилдөг - хиймэл оюун ухаан нь ажилтнуудад олоход хэдэн сар эсвэл хэдэн жил шаардагдах асуудлуудыг ухаж, аюулгүй байдлыг шинэчлэхэд тусалдаг (хэрэв байгаа бол).

Generative AI нь эмзэг байдлын скан үр дүнг боловсруулж, тэдгээрийг эрэмбэлэх замаар эмзэг байдлын менежментийн ажлын урсгалд Tenable's ExposureAI шинжээчдэд эмзэг байдлын мэдээллийг энгийн хэлээр асууж, шуурхай хариулт авах боломжийг олгохын тулд хиймэл хиймэл оюун ухааныг ашигладаг ( Цахилгаан аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). ExposureAI нь "бүхэл бүтэн халдлагын замыг нэгтгэн дүгнэж" , халдагчид системийг эвдэхийн тулд үүнийг бусад сул талуудтай хэрхэн холбож болохыг тайлбарлаж чадна. Тэр ч байтугай эрсдэлийг арилгах арга хэмжээг санал болгож, эрсдлийн талаархи дараагийн асуултуудад хариулдаг. Энэ нь шинэ чухал CVE (нийтлэг эмзэг байдал ба өртөлт) зарлахад шинжээч нь хиймэл оюун ухаанаас "Манай серверүүд энэ CVE-д өртсөн үү, засвар хийхгүй бол хамгийн муу тохиолдол юу вэ?" гэж Байгууллагын өөрийн сканнердсан мэдээллээс тодорхой үнэлгээ авах боломжтой. Эмзэг байдлыг контекст байдлаар тусгаснаар (жишээ нь, энэ нь интернет болон өндөр үнэ цэнэтэй сервер дээр байдаг тул энэ нь нэн тэргүүний асуудал юм) үүсгэгч хиймэл оюун ухаан нь багуудад хязгаарлагдмал нөөцөөр ухаалгаар засварлахад тусалдаг.

Хиймэл оюун ухаан нь мэдэгдэж буй эмзэг байдлыг олж, удирдахаас гадна нэвтрэлтийн туршилт, халдлагын симуляцид - үндсэндээ үл мэдэгдэх эмзэг байдлыг илрүүлэх эсвэл аюулгүй байдлын хяналтыг турших. Үр дүнтэй дайсагнасан сүлжээ (GANS), AI-ийн төрөл, хэрэглэгчдийн траффик, хэрэглэгчийн траффик эсвэл хэрэглэгчийн зан үйлийг дуурайдаг. 2023 оны судалгаагаар халдлагыг илрүүлэх системийг сургах зорилгоор бодитой тэг өдрийн халдлагын урсгалыг бий болгохын тулд GAN-г ашиглахыг санал болгосон ( Цахим аюулгүй байдлын үүсмэл хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээнүүд] ). IDS-ийг хиймэл оюун ухаанаар бүтээсэн халдлагын хувилбараар (үйлдвэрлэлийн сүлжээнд бодит хортой програм ашиглах эрсдэлгүй) хангаснаар байгууллагууд бодит байдал дээр аюул заналхийлэлд өртөхийг хүлээлгүйгээр шинэ аюулыг танихын тулд хамгаалалтаа сургаж чадна. Үүний нэгэн адил хиймэл оюун ухаан нь халдагчийг системийг шалгаж буйг дуурайж чаддаг - жишээлбэл, амжилттай байгаа эсэхийг шалгахын тулд аюулгүй орчинд янз бүрийн ашиглалтын арга техникийг автоматаар туршиж үзэх боломжтой. АНУ-ын Батлан ​​хамгаалахын дэвшилтэт судалгааны төслүүдийн агентлаг (DARPA) 2023 оны AI Кибер сорилт нь өрсөлдөөний нэг хэсэг болгон "нээлттэй эхийн програм хангамжийн эмзэг байдлыг автоматаар олж засварлах" DARPA AI програмыг хөгжүүлэхийг зорьж байна. Мэдээ ). Энэхүү санаачилга нь хиймэл оюун ухаан нь зөвхөн мэдэгдэж буй цоорхойг нөхөхөд тусалдаггүй гэдгийг онцолж байна; Энэ нь шинийг идэвхтэй илрүүлж, засваруудыг санал болгож байгаа бөгөөд энэ нь зөвхөн чадварлаг (болон үнэтэй) аюулгүй байдлын судлаачдад л хязгаарлагддаг.

хамгаалалтын зориулалтаар ухаалаг зөгийн бал, дижитал ихрүүдийг бий болгож чадна Стартапууд жинхэнэ сервер эсвэл төхөөрөмжүүдийг дуурайдаг хиймэл оюун ухаанд суурилсан заль мэхийн системийг хөгжүүлж байна. Нэг Гүйцэтгэх захирлын тайлбарласнаар үүсгэгч хиймэл оюун ухаан нь "бодит системийг дуурайж, хакеруудыг татахын тулд дижитал системийг хуулбарлаж чадна" ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээнүүд] ). Хиймэл оюун ухаанаар үүсгэсэн эдгээр зөгийн балнууд нь бодит орчин шиг ажилладаг (хэвийн телеметрийг илгээдэг хуурамч IoT төхөөрөмж гэх мэт) боловч зөвхөн халдагчдыг татахын тулд байдаг. Халдагч заль мэх рүү чиглэх үед хиймэл оюун ухаан нь үндсэндээ тэдний арга барилыг илчлэхийн тулд тэднийг хууран мэхэлсэн бөгөөд үүнийг хамгаалагчид судалж, бодит системийг бэхжүүлэхэд ашиглаж болно. Генератив загварчлалаар дэмжигдсэн энэхүү үзэл баримтлал нь хиймэл оюун ухаанаар сайжруулсан заль мэхийг ашиглан халдагчдын эсрэг ширээг эргүүлэх

Салбар даяар эмзэг байдлын менежментийг илүү хурдан, ухаалаг болгосноор зөрчил багасна гэсэн үг. Жишээлбэл, эрүүл мэндийн мэдээллийн технологийн хувьд хиймэл оюун ухаан нь эмнэлгийн төхөөрөмж дээрх эмзэг хуучирсан номын санг хурдан илрүүлж, аливаа халдагч үүнийг ашиглахаас өмнө програм хангамжийн засварыг санал болгодог. Банкны салбарт хиймэл оюун ухаан нь хэрэглэгчийн мэдээллийг бүх хувилбарт аюулгүй байлгахын тулд шинэ аппликейшн дээр хийсэн дотоод халдлагыг дуурайж чаддаг. Тиймээс үүсмэл хиймэл оюун ухаан нь байгууллагын аюулгүй байдлын төлөв байдалд микроскоп, стресс-тестерийн үүрэг гүйцэтгэдэг: энэ нь далд согогийг гэрэлтүүлж, уян хатан байдлыг хангахын тулд системд дарамт учруулдаг.

Аюулгүй код үүсгэх, програм хангамж хөгжүүлэх

Generative AI-ийн авъяас чадвар нь халдлагыг илрүүлэхээр хязгаарлагдахгүй бөгөөд тэд эхнээс нь илүү аюулгүй системийг бий болгоход . Програм хангамж хөгжүүлэхэд AI код үүсгэгч (GitHub Copilot, OpenAI Codex гэх мэт) нь кодын хэсэгчилсэн хэсэг эсвэл бүр бүхэл функцийг санал болгосноор хөгжүүлэгчдэд кодыг хурдан бичихэд тусалдаг. Кибер аюулгүй байдлын өнцөг нь хиймэл оюун ухаанаас санал болгож буй эдгээр кодын аюулгүй байдлыг хангаж, кодчиллын туршлагыг сайжруулахын тулд хиймэл оюун ухааныг ашиглаж байгаа явдал юм.

аюулгүй байдлын шилдэг туршлагыг шингээсэн кодлох туслах үүрэг гүйцэтгэдэг . "Python-д нууц үг шинэчлэх функц үүсгэх" гэсэн хиймэл оюун ухааны хэрэглүүрийг санал болгож, зөвхөн ажиллагаатай төдийгүй аюулгүй удирдамжийг (жишээ нь: зөв оролт баталгаажуулах, бүртгэл хөтлөх, мэдээлэл алдагдуулахгүйгээр алдаатай ажиллах гэх мэт) дагаж мөрдөх кодыг буцааж авах боломжтой. Аюулгүй байдлын дэлгэрэнгүй жишээн дээр сургагдсан ийм туслах нь эмзэг байдалд хүргэдэг хүний ​​алдааг багасгахад тусална. Жишээлбэл, хэрэв хөгжүүлэгч хэрэглэгчийн оролтыг цэвэрлэхээ мартсан бол (SQL тарилга хийх хаалгыг нээх эсвэл үүнтэй төстэй асуудлууд) хиймэл оюун ухаан үүнийг анхдагч байдлаар оруулах эсвэл анхааруулж болно. AI кодчиллын зарим хэрэгслийг яг энэ зорилгод үйлчлэхийн тулд аюулгүй байдалд чиглэсэн өгөгдөлд тохируулж байна - үндсэндээ AI програмчлалыг аюулгүй байдлын ухамсартай хослуулж байна .

Гэсэн хэдий ч эсрэг талын тал бий: хиймэл хиймэл оюун ухаан нь зөв удирдаагүй тохиолдолд эмзэг байдлыг хялбархан нэвтрүүлж чадна. Sophos-ийн аюулгүй байдлын мэргэжилтэн Бен Версчаерен тэмдэглэснээр, кодчилолд хиймэл хиймэл оюун ухааныг ашиглах нь "богино, баталгаажуулах кодыг ашиглахад тохиромжтой, гэхдээ шалгагдаагүй кодыг үйлдвэрлэлийн системд нэгтгэх үед эрсдэлтэй". Эрсдэл нь хиймэл оюун ухаан нь логикийн хувьд зөв код үйлдвэрлэдэг бөгөөд энэ нь шинжээч бус хүмүүст анзаарагдахгүй байх магадлалтай. Түүгээр ч зогсохгүй, хорлонтой жүжигчид олон нийтийн хиймэл оюун ухааны загваруудад эмзэг кодын загвар (өгөгдлийн хордлогын нэг хэлбэр) суулгаж, зориудаар нөлөөлж болох бөгөөд ингэснээр хиймэл оюун ухаан нь аюулгүй кодыг санал болгодог. Ихэнх хөгжүүлэгчид аюулгүй байдлын мэргэжилтнүүд биш тул хэрэв хиймэл оюун ухаан нь тохиромжтой шийдлийг санал болговол тэд үүнийг сохроор ашиглаж болно, учир нь энэ нь дутагдалтай байгааг мэдээгүй ( Cybersecurity-д Generative AI-г ашиглах 6 тохиолдол [+ Жишээнүүд] ). Энэхүү санаа зовоосон асуудал нь бодитой – үнэндээ одоо LLM-д (том хэлний загварууд) зориулагдсан OWASP-ийн шилдэг 10 жагсаалт байдаг бөгөөд энэ жагсаалтад AI-г кодлоход ашиглахтай холбоотой нийтлэг эрсдэлүүдийг тодорхойлсон байдаг.

Эдгээр асуудлыг шийдвэрлэхийн тулд шинжээчид кодчиллын талбарт "үүсгэх хиймэл оюун ухаантай тэмцэхийг" Практикт энэ нь хиймэл оюун ухааныг ашиглан бусад хиймэл оюун ухаан (эсвэл хүмүүсийн) бичсэн кодыг хянаж, турших Хиймэл оюун ухаан нь хүний ​​​​код хянагчаас хамаагүй хурдан шинэ кодыг сканнердаж, болзошгүй сул тал эсвэл логик асуудлуудыг тэмдэглэж чаддаг. Програм хангамжийн хөгжүүлэлтийн амьдралын мөчлөгт нэгтгэсэн хэрэгслүүд гарч ирж байгааг бид аль хэдийн харж байна: код бичдэг (магадгүй хиймэл оюун ухааны тусламжтайгаар), дараа нь аюулгүй кодын зарчмаар бэлтгэгдсэн үүсгүүрийн загвар үүнийг хянаж, ямар нэгэн асуудал (хуучирсан функцүүдийн ашиглалт, баталгаажуулалтын шалгалт байхгүй гэх мэт) -ийн тайланг гаргадаг. NVIDIA-ийн өмнө дурьдсан, кодын эмзэг байдлыг 4 дахин хурдан илрүүлсэн судалгаа нь кодын аюулгүй байдлын шинжилгээнд хиймэл оюун ухааныг ашиглах жишээ юм ( Цахим аюулгүй байдлын 6 ашиглалтын тохиолдол [+ Жишээнүүд] ).

аюулгүй тохиргоо, скрипт үүсгэхэд тусална . Жишээлбэл, хэрэв компани найдвартай үүлэн дэд бүтцийг ашиглах шаардлагатай бол инженер хиймэл оюун ухаанаас аюулгүй байдлын хяналт (сүлжээний зөв сегментчилэл, хамгийн бага давуу эрх бүхий IAM үүрэг гэх мэт) бүхий тохиргооны скриптүүдийг (Дэд бүтцийг код болгон) үүсгэхийг хүсч болно. AI нь мянга мянган ийм тохиргоонд сургагдсан тул хөдөлгүүрийг тохируулах үндсэн шугамыг гаргаж чадна. Энэ нь системийн аюулгүй тохиргоог хурдасгаж, үүлэн аюулгүй байдлын зөрчлийн нийтлэг эх үүсвэр болох буруу тохируулгын алдааг бууруулдаг.

Зарим байгууллагууд аюулгүй кодчиллын хэв маягийн мэдлэгийн санг хадгалахын тулд хиймэл хиймэл оюун ухааныг ашиглаж байна. Хэрэв хөгжүүлэгч тодорхой функцийг хэрхэн найдвартай хэрэгжүүлэх талаар эргэлзэж байвал компанийн өмнөх төслүүд болон аюулгүй байдлын удирдамжаас суралцсан дотоод хиймэл оюун ухаанаас асууж болно. AI нь функциональ шаардлага болон компанийн аюулгүй байдлын стандартын аль алинд нь нийцсэн санал болгож буй арга эсвэл кодын хэсэгчилсэн хэсгийг буцааж өгч болно. Secureframe-ийн асуулгын автоматжуулалт гэх мэт хэрэгслүүд ашигласан бөгөөд энэ нь тогтвортой бөгөөд үнэн зөв хариултыг (үндсэндээ аюулгүй баримт бичгийг бий болгох) хангахын тулд компанийн бодлого, өмнөх шийдлүүдээс хариулт авдаг ( Үйлдвэрлэлийн хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Энэхүү ухагдахууныг кодчилол гэж орчуулбал таныг өмнө нь ямар нэг зүйлийг хэрхэн аюулгүй хэрэгжүүлснийг "санаж", дахин ийм байдлаар хэрэгжүүлэхэд чиглүүлдэг хиймэл оюун ухаан юм.

Дүгнэж хэлэхэд, хиймэл оюун ухаан нь аюулгүй кодчиллын тусламжийг илүү хүртээмжтэй болгож . Техник, санхүү, батлан ​​хамгаалах гэх мэт олон тооны захиалгат программ хангамжийг хөгжүүлдэг салбарууд нь зөвхөн кодчиллыг хурдасгах төдийгүй аюулгүй байдлын байнгын сонор сэрэмжтэй хянагчаар ажилладаг хиймэл оюун ухааны туслах нисгэгчидтэй байх нь ашиг тустай. Зохих ёсоор удирдаж чадвал эдгээр хиймэл оюуны хэрэгслүүд нь шинэ эмзэг байдлын нэвтрэлтийг бууруулж, алхам бүрт аюулгүй байдлын мэргэжилтэн оролцдоггүй байсан ч хөгжүүлэлтийн багуудад шилдэг туршлагыг дагаж мөрдөхөд тусалдаг. Үр дүн нь эхний өдрөөсөө халдлагад илүү бат бөх байдаг программ хангамж юм.

Ослын хариу арга хэмжээний дэмжлэг

Кибер аюулгүй байдлын осол тохиолдоход, хортой програмын дэгдэлт, өгөгдөл зөрчсөн эсвэл халдлагын улмаас системийн тасалдал зэрэг цаг хугацаа чухал байдаг. ослын хариу арга хэмжээ (IR) багийг ослыг илүү хурдан илрүүлж, арилгахад тулд илүү их ашиглагдаж байна Энэхүү санаа нь хиймэл оюун ухаан нь ослын үед мөрдөн байцаалтын болон баримт бичгийн зарим ачааг үүрч, хариу арга хэмжээ авах зарим арга хэмжээг санал болгож эсвэл автоматжуулж чадна гэсэн санаа юм.

IR-д AI-ийн нэг гол үүрэг бол бодит цагийн ослын дүн шинжилгээ, нэгтгэн дүгнэх явдал . Үйл явдлын дунд хариулагчдад “Халдлага үйлдэгч хэрхэн нэвтэрсэн бэ?” , "Ямар системүүд нөлөөлж байна вэ?" , болон "Ямар өгөгдөл эвдэгдэж болзошгүй?" . Генератив хиймэл оюун ухаан нь нөлөөлөлд өртсөн системүүдийн бүртгэл, сэрэмжлүүлэг, шүүх эмнэлгийн өгөгдөлд дүн шинжилгээ хийж, хурдан ойлголт өгөх боломжтой. Жишээлбэл, Microsoft Security Copilot нь ослын хариулагчийг янз бүрийн нотлох баримтуудыг (файл, URL, үйл явдлын бүртгэл) оруулж, он цагийн хуваарь эсвэл хураангуйг асуух боломжийг олгодог ( Microsoft Security Copilot нь кибер аюулгүй байдлын шинэ GPT-4 AI туслах юм | The Verge ). Хиймэл оюун ухаан нь: "Зөрчил нь GMT-ийн 10:53 цагт X-тэй хортой программ агуулсан JohnDoe хэрэглэгч рүү фишинг цахим шуудан илгээснээс эхэлсэн байж магадгүй юм. Хорлонтой програмыг ажиллуулсны дараа арын хаалга үүсгэж, хоёр хоногийн дараа мэдээлэл цуглуулж санхүүгийн сервер рүү хажуу тийш шилжихэд ашигласан." Энэхүү уялдаа холбоотой дүр зургийг хэдэн цагаар биш хэдэн минутын дотор авах нь багийнханд мэдээлэлтэй шийдвэр гаргах (ямар системийг тусгаарлах гэх мэт) илүү хурдан хийх боломжийг олгодог.

Хиймэл хиймэл оюун ухаан нь мөн хязгаарлах, арилгах арга хэмжээг санал болгож . Жишээлбэл, хэрэв эцсийн цэг нь ransomware-ээр халдварлагдсан бол AI хэрэгсэл нь тухайн машиныг тусгаарлах, тодорхой бүртгэлүүдийг идэвхгүй болгох, галт хананд мэдэгдэж буй хортой IP-г хаах зорилгоор скрипт эсвэл зааврын багц үүсгэж болох юм. "үйл явдлын мөн чанарт үндэслэн зохих үйлдэл эсвэл скрипт үүсгэх" , хариу арга хэмжээний эхний алхмуудыг автоматжуулах чадвартай гэдгийг тэмдэглэв Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ). Аюулгүй байдлын баг ачаалал ихтэй байгаа тохиолдолд (хэдэн зуун төхөөрөмжид өргөн тархсан халдлага гэж хэлнэ) хиймэл оюун ухаан нь эдгээр үйлдлүүдийн заримыг урьдчилан зөвшөөрөгдсөн нөхцөлд шууд гүйцэтгэж, уйгагүй ажилладаг залуу хариулагч шиг ажиллах боломжтой. Жишээлбэл, хиймэл оюун ухааны агент нь халдсан гэж үзсэн итгэмжлэлээ автоматаар шинэчлэх эсвэл ослын профайлтай таарч хортой үйл ажиллагаа харуулсан хостуудыг хорио цээрийн дэглэмд оруулах боломжтой.

Ослын хариу арга хэмжээний үеэр баг болон оролцогч талуудтай харилцах нь амин чухал юм. ослын шинэчлэлтийн тайлан эсвэл товч мэдээллийг шууд боловсруулах замаар тусалж чадна . Инженер алдаа засахаа зогсоож цахим шуудангаар шинэчлэлт бичихийн оронд хиймэл оюун ухаанаас "Удирдах ажилтнуудад мэдээлэхийн тулд энэ үйл явдалд юу болсныг нэгтгэн дүгнэ" гэж асууж болно. AI нь ослын өгөгдлийг шингээж авсны дараа товч дүгнэлтийг гаргаж чадна: "15.00 цагийн байдлаар халдагчид 2 хэрэглэгчийн бүртгэл, 5 серверт нэвтэрсэн байна. Нөлөөлөлд өртсөн өгөгдөлд X мэдээллийн сан дахь үйлчлүүлэгчийн бүртгэл багтана. Хамгаалах арга хэмжээ: Эвдэрсэн акаунтуудын VPN хандалтыг цуцалж, серверүүдийг тусгаарласан. Дараагийн алхамууд: ямар ч тогтвортой ажиллах механизмыг сканнердах." Хариулагч нь үүнийг хурдан шалгаж, өөрчилж, илгээж, оролцогч талуудыг үнэн зөв, сүүлийн үеийн мэдээллээр хангах боломжтой.

Тоос тогтсоны дараа ихэвчлэн ослын нарийвчилсан тайланг бэлтгэх, сургамжийг нэгтгэх шаардлагатай байдаг. Энэ бол хиймэл оюун ухааныг дэмждэг өөр нэг хэсэг юм. Энэ нь ослын бүх өгөгдлийг хянаж, үндсэн шалтгаан, он дараалал, нөлөөлөл, зөвлөмжийг багтаасан ослын дараах тайланг гаргах Жишээлбэл, IBM нь нэг товчлуур дээр дарснаар "аюулгүй байдлын тохиолдол, ослын талаарх энгийн хураангуйг оролцогч талуудтай хуваалцах"-ыг Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглах вэ? Дэлхийн бодит 10 жишээ ). Үйл ажиллагааны дараах тайлагналыг оновчтой болгосноор байгууллагууд сайжруулалтыг хурдан хэрэгжүүлэхээс гадна дагаж мөрдөх зорилгоор илүү сайн баримт бичигтэй болох боломжтой.

Ирээдүйг харсан шинэлэг хэрэглээ бол хиймэл оюун ухаанд суурилсан ослын симуляци . Галын сургуулилтыг хэрхэн явуулахтай адил зарим компаниуд "ямар бол" тохиолдлын хувилбаруудыг даван туулахын тулд хиймэл хиймэл оюун ухааныг ашиглаж байна. Хиймэл оюун ухаан нь сүлжээний зохион байгуулалтаас хамааран ransomware хэрхэн тархаж болох, эсвэл дотоод хүн өгөгдлийг хэрхэн задруулж болохыг дуурайж, дараа нь одоогийн хариу арга хэмжээний төлөвлөгөөний үр нөлөөг үнэлэх боломжтой. Энэ нь багуудад бодит хэрэг явдал гарахаас өмнө тоглоомын дэвтэр бэлтгэх, сайжруулахад тусалдаг. Энэ нь таны бэлэн байдлыг байнга шалгадаг, байнга сайжирч байгаа ослын хариу арга хэмжээний зөвлөхтэй байхтай адил юм.

Санхүү, эрүүл мэнд зэрэг өндөр эрсдэлтэй салбаруудад ослын улмаас зогсолт, мэдээлэл алдагдах нь ялангуяа өндөр өртөгтэй байдаг тул хиймэл оюун ухаанд суурилсан IR чадварууд нь маш сонирхолтой байдаг. Кибер осолд өртсөн эмнэлэг удаан хугацааны туршид системийн тасалдалыг тэсвэрлэх чадваргүй байдаг - дарангуйлахад хурдан туслах хиймэл оюун ухаан нь хүний ​​амь насыг аварч магадгүй юм. Үүний нэгэн адил санхүүгийн байгууллага өглөөний 3 цагт залилан мэхэлсэн сэжигтэй халдлагыг илрүүлэхийн тулд хиймэл оюун ухааныг ашиглаж болох бөгөөд ингэснээр дуудлагын хүмүүс онлайн байх үед олон суурь ажил (нөлөөлөлд өртсөн данснаас гарах, гүйлгээг хаах гэх мэт) аль хэдийн хийгдсэн болно. үүсмэл хиймэл оюун ухаантай ослын хариу арга хэмжээний багийг нэмэгдүүлснээр хариу арга хэмжээ авах хугацааг эрс багасгаж, тэдгээрийг зохицуулах нарийн ширийнийг сайжруулж, эцэст нь кибер ослоос учирч болох хохирлыг бууруулж чадна.

Зан үйлийн аналитик ба гажигийг илрүүлэх

Олон тооны кибер халдлагад ямар нэг зүйл "хэвийн" зан үйлээс хазайж байгааг анзаарах боломжтой - энэ нь хэрэглэгчийн бүртгэл ер бусын хэмжээний өгөгдөл татаж авах эсвэл сүлжээний төхөөрөмж гэнэт танил бус хосттой холбогдож байгаа эсэх. зан үйлийн шинжилгээ, гажиг илрүүлэх дэвшилтэт арга техникийг санал болгодог , хэрэглэгчид болон системийн ердийн хэв маягийг сурч, дараа нь ямар нэг зүйл буруу харагдах үед дарцагладаг.

Уламжлалт гажиг илрүүлэх нь ихэвчлэн статистикийн босго эсвэл тодорхой хэмжүүрүүд (CPU ашиглалтын өсөлт, сондгой цагт нэвтрэх гэх мэт) дээр энгийн машин сургалтыг ашигладаг. Төрөл бүрийн хиймэл оюун ухаан нь зан үйлийн илүү нарийн дүр төрхийг бий болгосноор үүнийг урагшлуулж чадна. Жишээлбэл, хиймэл оюун ухааны загвар нь ажилтны нэвтрэлт, файлд хандах хэв маяг, цахим шуудангийн дадал зуршлыг цаг хугацааны явцад шингээж, тухайн хэрэглэгчийн "хэвийн" тухай олон хэмжээст ойлголтыг бий болгож чадна. Хэрэв тэр бүртгэл нь дараа нь өөрийн нормоос гадуур ямар нэг зүйл хийвэл (шинэ улсаас нэвтэрч, шөнө дунд хүний ​​нөөцийн файлд хандах гэх мэт) AI нь зөвхөн нэг хэмжигдэхүүн дээр биш, харин хэрэглэгчийн профайлд тохирохгүй зан үйлийн хэв маягийн хазайлтыг илрүүлэх болно. Техникийн хэллэгээр, үүсгэгч загварууд (автокодер эсвэл дарааллын загвар гэх мэт) "хэвийн" гэж юу болохыг загварчилж, дараа нь хүлээгдэж буй үйл ажиллагааны хүрээг бий болгож чадна. Бодит байдал энэ хязгаараас хэтэрсэн тохиолдолд энэ нь гажиг гэж тэмдэглэгддэг ( Кибер аюулгүй байдал дахь хиймэл хиймэл оюун ухаан гэж юу вэ? - Palo Alto Networks ).

Сүлжээний траффикийг хянах нэг бодит хэрэглүүр юм . 2024 оны судалгаагаар АНУ-ын байгууллагуудын 54% нь сүлжээний траффикийг хянах нь кибер аюулгүй байдалд хиймэл оюун ухааныг ашиглах хамгийн чухал тохиолдол гэж үзсэн байна ( Хойд Америк: 2024 онд дэлхийн хэмжээнд кибер аюулгүй байдлын шилдэг хиймэл оюун ухааныг ашиглах тохиолдол ). Генератив хиймэл оюун ухаан нь байгууллагын сүлжээний ердийн харилцааны хэв маягийг мэдэж чадна – ямар серверүүд хоорондоо ихэвчлэн ярьдаг, ажлын цагаар ямар хэмжээний өгөгдөл нэг шөнийн дотор шилжинэ, гэх мэт. Хэрэв халдагчид илрүүлэхээс зайлсхийхийн тулд серверээс өгөгдлийг удаанаар гадагшлуулж эхэлбэл AI-д суурилсан систем нь “Сервер А хэзээ ч 500 МБ өгөгдлийг гадаад IP дохиолол руу илгээдэггүй” . Хиймэл оюун ухаан нь зүгээр л статик дүрмийг ашиглаад зогсохгүй сүлжээний зан үйлийн хувьсан өөрчлөгдөж буй загвар учраас статик дүрмүүд ("өгөгдөл > X МБ бол сэрэмжлүүлэг" гэх мэт) орхигдуулж эсвэл андуурч тэмдэглэж болзошгүй нарийн гажигийг илрүүлж чадна. Энэхүү дасан зохицох шинж чанар нь банкны гүйлгээний сүлжээ, үүлэн дэд бүтэц, IoT төхөөрөмжийн флот зэрэг орчинд хэвийн бус болон хэвийн бус гэсэн тогтсон дүрмийг тодорхойлох нь туйлын төвөгтэй орчинд AI-д суурилсан гажиг илрүүлэхийг хүчирхэг болгодог.

хэрэглэгчийн зан төлөвийн аналитик (UBA) -д тусалдаг бөгөөд энэ нь дотоод аюул эсвэл нууцлагдсан бүртгэлийг илрүүлэх гол түлхүүр юм. Хэрэглэгч эсвэл аж ахуйн нэгж бүрийн суурь үзүүлэлтийг гаргаснаар AI нь итгэмжлэлийг буруугаар ашиглах гэх мэт зүйлсийг илрүүлж чадна. Жишээлбэл, нягтлан бодох бүртгэлээс Боб гэнэт хэрэглэгчийн мэдээллийн сангаас асууж эхэлбэл (түүний урьд өмнө нь хэзээ ч хийж байгаагүй зүйл) Бобын зан төлөвт зориулсан AI загвар нь үүнийг ер бусын гэж тэмдэглэх болно. Энэ нь хорлонтой програм биш байж магадгүй – энэ нь Бобын итгэмжлэлийг халдагчид хулгайлж ашигласан, эсвэл Боб болохгүй газраа шалгаж байгаа тохиолдол байж болно. Аль ч тохиолдолд хамгаалалтын баг мөрдөн байцаалтад оролцдог. Ийм хиймэл оюун ухаанд суурилсан UBA системүүд нь янз бүрийн аюулгүй байдлын бүтээгдэхүүнд байдаг бөгөөд загварчлалын техник нь контекстийг харгалзан нарийвчлалыг нэмэгдүүлж, хуурамч дохиоллыг бууруулдаг (магадгүй Боб тусгай төсөл дээр ажиллаж байгаа гэх мэт. хиймэл оюун ухаан заримдаа бусад өгөгдлөөс дүгнэж болно).

Хуурамч мэдээлэл, хандалтын удирдлагын хүрээнд хуурамч мэдээлэл илрүүлэх нь улам бүр хэрэгцээ болж байна – хиймэл хиймэл оюун ухаан нь биометрийн аюулгүй байдлыг алдагдуулдаг синтетик дуу хоолой, видеог үүсгэж чаддаг. Сонирхолтой нь, хиймэл хиймэл оюун ухаан нь хүмүүст анзаарахад хэцүү аудио эсвэл видео бичлэгийн нарийн ширхэгтэй олдворуудад дүн шинжилгээ хийх замаар эдгээр гүнзгий хуурамч зүйлийг илрүүлэхэд тусалдаг. Бид Accenture-ийн жишээг харсан бөгөөд энэ нь хиймэл хиймэл оюун ухааныг ашиглан тоо томшгүй олон нүүрний хувирал, нөхцөл байдлыг дуурайж, биометрийн системээ хиймэл оюун ухаанаар үүсгэсэн гүн хуурамч мэдээллээс ялгахын тулд биометрийн системээ сургасан Таван жилийн хугацаанд энэхүү арга нь Accenture-д системийнхээ 90%-ийн нууц үгийг устгаж (биометр болон бусад хүчин зүйл рүү шилжих) болон халдлагыг 60%-иар бууруулахад тусалсан ( Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээнүүд] ). Үндсэндээ тэд биометрийн нэвтрэлт танилтыг бэхжүүлэхийн тулд үүсгэгч хиймэл оюун ухааныг ашиглаж, түүнийг үүсгэгч халдлагын эсрэг тэсвэртэй болгосон (AI-тай тэмцэж буй хиймэл оюун ухааны гайхалтай жишээ). Энэ төрлийн зан үйлийн загварчлал - энэ тохиолдолд хүний ​​амьд царай ба хиймэл оюун ухаанаар нийлэгжсэн царай хоёрын ялгааг таних нь маш чухал бөгөөд учир нь бид гэрчлэл хийхдээ хиймэл оюун ухаанд илүү найддаг.

Хиймэл оюун ухаанаар ажилладаг гажиг илрүүлэх нь бүх салбаруудад хэрэгждэг: эрүүл мэндийн салбарт, эмнэлгийн төхөөрөмжийн ажиллагааг хакердсан шинж тэмдгийг хянах; санхүүгийн хувьд залилан эсвэл алгоритмын заль мэхийг илтгэж болох тогтмол бус хэв маягийн арилжааны системийг ажиглах; эрчим хүч/компаниудад халдлагын шинж тэмдгийг хянах системийн дохиог ажиглах. өргөн цар хүрээтэй (зан үйлийн бүх талыг хардаг) болон гүн гүнзгий (нарийн төвөгтэй хэв маягийг ойлгох) хослуулсан нь түүнийг кибер ослын хадлан дахь хадлангийн индикаторуудыг илрүүлэх хүчтэй хэрэгсэл болгодог. Аюул заналхийлэл улам нууцлагдмал болж, ердийн үйл ажиллагааны дунд нуугдах тусам "хэвийн" байдлыг нарийн тодорхойлох, ямар нэг зүйл хазайх үед хашгирах чадвар нь чухал болдог. Тиймээс хиймэл хиймэл оюун ухаан нь уйгагүй харуулын үүрэг гүйцэтгэдэг бөгөөд хүрээлэн буй орчны өөрчлөлттэй хөл нийлүүлэн алхахын тулд хэвийн байдлын тодорхойлолтоо байнга сурч, шинэчилж, аюулгүй байдлын багуудад илүү нягт нямбай шалгах шаардлагатай гажуудлын талаар сэрэмжлүүлдэг.

Кибер аюулгүй байдал дахь хиймэл хиймэл оюун ухааны боломж ба ашиг тус

эдгээр хэрэгслийг ашиглах хүсэлтэй байгууллагуудад олон боломж, ашиг тусыг Доор бид хиймэл хиймэл оюун ухааныг кибер аюулгүй байдлын хөтөлбөрт нэмэлт болгож буй гол давуу талуудыг нэгтгэн харуулав.

  • Аюул заналхийллийг илүү хурдан илрүүлэх, хариу арга хэмжээ авах: Хиймэл оюун ухаант систем нь асар их хэмжээний өгөгдлийг бодит цаг хугацаанд задлан шинжилж, хүний ​​гараар хийсэн шинжилгээнээс хамаагүй хурдан аюулыг таньж чаддаг. Энэхүү хурдны давуу тал нь халдлагыг эрт илрүүлж, ослыг хурдан дарах явдал юм. Практикт хиймэл оюун ухаанд суурилсан аюулгүй байдлын хяналт нь хүмүүсийг хооронд нь уялдуулахад илүү удаан хугацаа шаардагдах аюулыг илрүүлж чаддаг. Бэрхшээлд шуурхай хариу арга хэмжээ авснаар (эсвэл бүр бие даасан байдлаар анхны хариу арга хэмжээ авснаар) байгууллагууд өөрсдийн сүлжээнд халдагчдын оршин суух хугацааг эрс багасгаж, хохирлыг багасгах боломжтой.

  • Сайжруулсан нарийвчлал, аюулын хамрах хүрээ: Тэд шинэ өгөгдлөөс байнга суралцдаг тул үүсгэгч загварууд нь хөгжиж буй аюул заналхийлэлд дасан зохицож, хорлонтой үйл ажиллагааны нарийн шинж тэмдгүүдийг барьж чаддаг. Энэ нь статик дүрмүүдтэй харьцуулахад илрүүлэх нарийвчлалыг сайжруулахад хүргэдэг (худал сөрөг ба худал эерэг үзүүлэлт бага). Жишээлбэл, фишинг цахим шуудан эсвэл хортой програмын шинж тэмдгийг олж мэдсэн хиймэл оюун ухаан нь урьд өмнө хэзээ ч харж байгаагүй хувилбаруудыг тодорхойлж чадна. Үүний үр дүнд аюул заналхийллийн төрлүүдийг, тэр дундаа шинэ халдлагуудыг хамарч, аюулгүй байдлын ерөнхий байдлыг бэхжүүлж байна. Хамгаалалтын багууд мөн хиймэл оюун ухааны шинжилгээнээс (жишээ нь, хортой програмын үйлдлийн тайлбар) нарийвчилсан ойлголтыг олж авч, илүү нарийвчлалтай, зорилтот хамгаалалтыг идэвхжүүлдэг ( Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ).

  • Дахин давтагдах даалгавруудыг автоматжуулах: Хиймэл хиймэл оюун ухаан нь бүртгэлийг самнах, тайлан гаргахаас эхлээд ослын хариу скрипт бичих хүртэл хөдөлмөр их шаардсан аюулгүй байдлын ажлыг автоматжуулахад гарамгай байдаг. Энэхүү автоматжуулалт нь хүний ​​шинжээчдийн ачааллыг бууруулж , тэднийг өндөр түвшний стратеги, нарийн төвөгтэй шийдвэр гаргахад анхаарлаа төвлөрүүлэх боломжийг олгодог ( Кибер аюулгүй байдал дахь хиймэл хиймэл оюун ухаан гэж юу вэ? - Palo Alto Networks ). Эмзэг байдлын скан хийх, тохиргооны аудит хийх, хэрэглэгчийн үйл ажиллагааны дүн шинжилгээ хийх, нийцлийн тайлагнах гэх мэт энгийн боловч чухал ажлуудыг хиймэл оюун ухаан (эсвэл ядаж анх боловсруулсан) хийж болно. Эдгээр ажлыг машины хурдаар гүйцэтгэснээр хиймэл оюун ухаан нь үр ашгийг дээшлүүлэхээс гадна хүний ​​алдааг бууруулдаг (зөрчилд ихээхэн хүчин зүйл болдог).

  • Идэвхтэй хамгаалалт ба загварчлал: Хиймэл хиймэл оюун ухаан нь байгууллагуудад реактив хамгаалалтаас идэвхтэй хамгаалалт руу шилжих боломжийг олгодог. Довтолгооны загварчлал, синтетик өгөгдөл үүсгэх, хувилбарт суурилсан сургалт зэрэг арга техникээр дамжуулан хамгаалагчид аюул заналхийллийг бодит ертөнцөд тохиолдохоос нь өмнө Аюулгүй байдлын багууд аюулгүй орчинд кибер халдлагыг (фишинг кампанит ажил, хортой програмын дэгдэлт, DDoS гэх мэт) дуурайж, хариу арга хэмжээ авч, аливаа сул талыг засах боломжтой. Зөвхөн хүний ​​хүчин чармайлтаар нарийн хийх боломжгүй энэхүү тасралтгүй сургалт нь хамгаалалтыг хурц, шинэчлэгдүүлдэг. Энэ нь кибер "галын сургуулилт"-тай адил юм – хиймэл оюун ухаан нь таны хамгаалалт руу олон таамаглалын аюул заналхийлж чаддаг тул та дасгал хийж, сайжруулж чадна.

  • Хүний ур чадварыг нэмэгдүүлэх нь (Хүч үржүүлэгчийн хувьд хиймэл оюун ухаан): Хиймэл оюун ухаан нь уйгагүй бага шинжээч, зөвлөх, туслахын үүргийг гүйцэтгэдэг. Энэ нь туршлага багатай багийн гишүүдийг ихэвчлэн туршлагатай мэргэжилтнүүдээс хүлээгдэж буй заавар, зөвлөмжөөр хангаж, багийн хэмжээнд туршлагыг үр дүнтэй ардчилах Цахим аюулгүй байдлын 6 төрлийн хиймэл оюун ухааныг ашиглах тохиолдол [+ Жишээнүүд] ). Энэ нь кибер аюулгүй байдлын авъяас чадвар хомс байгаа нөхцөлд онцгой үнэ цэнэтэй юм - AI нь жижиг багуудад бага зардлаар илүү ихийг хийхэд тусалдаг. Нөгөө талаар туршлагатай шинжээчид хиймэл оюун ухаанаар шуугиан дэгдээх ажлыг зохицуулж, тодорхой бус ойлголтуудыг гаргаж, улмаар баталгаажуулж, хэрэгжүүлэх боломжтой. Нийт үр дүнд нь хиймэл оюун ухаан нь хүний ​​гишүүн бүрийн нөлөөллийг нэмэгдүүлж, илүү бүтээмжтэй, чадвартай аюулгүй байдлын баг юм ( Цахим аюулгүй байдалд Generative AI-г хэрхэн ашиглаж болох вэ ).

  • Шийдвэр гаргахад дэмжлэг үзүүлэх, тайлагнах сайжруулсан: Техникийн өгөгдлийг байгалийн хэлний ойлголт болгон хөрвүүлснээр хиймэл хиймэл оюун ухаан нь харилцаа холбоо, шийдвэр гаргах чадварыг сайжруулдаг. Аюулгүй байдлын удирдагчид хиймэл оюунаар үүсгэсэн хураангуй мэдээллээр асуудлыг илүү тодорхой харж, түүхий мэдээллийг задлан шинжлэх шаардлагагүйгээр стратегийн шийдвэр гаргах боломжтой. Гүйцэтгэх хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ харилцан үйлчлэл хоорондын харилцаа холбоо (гүйцэтгэх албан тушаалтнууд, дагаж мөрдөх ажилтнууд гэх мэт) сайжирдаг . Энэ нь удирдлагын түвшинд аюулгүй байдлын асуудалд итгэх итгэл, уялдаа холбоог бий болгоод зогсохгүй эрсдэл, хиймэл оюун ухаанаар илрүүлсэн цоорхойг тодорхой тусгаснаар хөрөнгө оруулалт, өөрчлөлтийг зөвтгөхөд тусалдаг.

Эдгээр давуу талууд нь кибер аюулгүй байдалд хиймэл хиймэл оюун ухааныг ашигладаг байгууллагууд үйл ажиллагааны зардал багатай, аюулгүй байдлын илүү хүчтэй байр суурьтай болно гэсэн үг юм. Тэд өмнө нь асар их байсан аюул заналхийлэлд хариу үйлдэл үзүүлж, хяналтгүй байсан цоорхойг нөхөж, хиймэл оюун ухаанд суурилсан санал хүсэлтийн гогцоог ашиглан тасралтгүй сайжруулж чаддаг. орчин үеийн довтолгооны хурд, цар хүрээ, боловсронгуй байдлыг хослуулан дайснуудынхаа өмнө гарах боломжийг олгодог Нэгэн судалгаагаар бизнес болон кибер удирдагчдын талаас илүү хувь нь хиймэл оюун ухаан ( [PDF] Кибер аюулгүй байдлын талаарх дэлхийн төлөв 2025 | Дэлхийн эдийн засгийн форум ) ( Cybersecurity дахь generative AI: A Comprehensive Review in Cybersecurity: A Comprehensive Review in Cybersecurity: A Comprehensive Review in Cybersecurity: A Comprehensive Review in Cybersecurity ) ашиглан аюул заналыг хурдан илрүүлж, нарийвчлалыг нэмэгдүүлнэ гэж бизнесийн болон кибер удирдагчдын өөдрөг төсөөлж байна.

Кибер аюулгүй байдалд хиймэл хиймэл оюун ухааныг ашиглах эрсдэл ба сорилтууд

Боломжууд нь ихээхэн ач холбогдолтой хэдий ч эрсдэл, сорилтод . AI-д сохроор итгэх эсвэл түүнийг буруугаар ашиглах нь шинэ эмзэг байдлыг бий болгож болзошгүй юм. Доор бид гол асуудал, бэрхшээлийг тус бүрийн контекстийн хамт тоймлов.

  • Кибер гэмт хэрэгтнүүдийн дайсагналцсан хэрэглээ: Хамгаалагчдад тусалдаг ижил үүсгэгч чадварууд нь халдагчдыг хүчирхэгжүүлдэг. Аюул заналхийлэгчид илүү үнэмшилтэй фишинг цахим шуудан үүсгэх, нийгмийн инженерчлэлд зориулсан хуурамч дүрүүд болон гүнзгий видео бичлэгүүдийг бүтээх, илрүүлэхээс зайлсхийхийн тулд байнга өөрчлөгддөг полиморф хортой программыг хөгжүүлэх, тэр ч байтугай хакердах үйл ажиллагааг автоматжуулах зорилгоор хиймэл хиймэл оюун ухааныг аль хэдийн ашиглаж байна ( Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ). Кибер аюулгүй байдлын удирдагчдын бараг тал хувь нь (46%) хиймэл хиймэл оюун ухаан нь илүү дэвшилтэт сөрөг халдлагад хүргэнэ гэдэгт санаа зовдог ( Generative AI Security: Trends, Threats & Mitigation Strategies ). Энэхүү "AI зэвсгийн уралдаан" нь хамгаалагчид хиймэл оюун ухааныг нэвтрүүлэх тусам халдагч нар хоцрохгүй (үнэндээ тэд зохицуулалтгүй хиймэл оюун ухааны хэрэгслийг ашиглан зарим хэсэгт түрүүлж байж магадгүй) гэсэн үг юм. Байгууллагууд хиймэл оюун ухаанаар сайжруулсан аюул заналхийлэлд бэлэн байх ёстой бөгөөд энэ нь илүү давтамжтай, боловсронгуй, мөрдөхөд хэцүү байдаг.

  • AI хий үзэгдэл ба алдаа: үнэмшилтэй боловч буруу эсвэл төөрөгдүүлсэн үр дүнг гаргаж чаддаг - хий үзэгдэл гэж нэрлэгддэг үзэгдэл. Аюулгүй байдлын хүрээнд хиймэл оюун ухаан нь тохиолдлуудад дүн шинжилгээ хийж, тодорхой эмзэг байдлын шалтгаан болсон гэж буруу дүгнэж, эсвэл халдлагыг агуулаагүй алдаа засах скрипт үүсгэж болзошгүй. Эдгээр алдаануудыг нэрлэсэн үнээр нь авч үзвэл аюултай байж болно. NTT Data-ын анхааруулснаар, "үүсгэх хиймэл оюун ухаан нь бодит бус контентыг гаргаж болзошгүй бөгөөд энэ үзэгдлийг хий үзэгдэл гэж нэрлэдэг ... одоогоор тэдгээрийг бүрэн арилгахад хэцүү байна" ( Үйлдвэрлэлийн хиймэл оюун ухааны аюулгүй байдлын эрсдэл ба эсрэг арга хэмжээ, кибер аюулгүй байдалд үзүүлэх нөлөө | NTT DATA групп ). Баталгаажуулалтгүйгээр хиймэл оюун ухаанд хэт найдах нь буруу чиглүүлсэн хүчин чармайлт эсвэл аюулгүй байдлын хуурамч мэдрэмжинд хүргэж болзошгүй юм. Жишээлбэл, хиймэл оюун ухаан нь чухал системийг аюулгүй биш үед буруугаар тэмдэглэж, эсвэл эсрэгээр хэзээ ч тохиолдож байгаагүй зөрчлийг "илрүүлснээр" сандрал үүсгэж болзошгүй. Энэхүү эрсдэлийг бууруулахын тулд хиймэл оюун ухааны гаралтыг нарийн баталгаажуулах, чухал шийдвэр гаргахад хүмүүсийг оролцуулах нь чухал юм.

  • Хуурамч эерэг ба сөрөг талууд: хий үзэгдэлтэй холбоотой, хэрэв хиймэл оюун ухааны загвар муу бэлтгэгдсэн эсвэл тохируулагдсан бол энэ нь хор хөнөөлгүй үйл ажиллагааг хортой (хуурамч эерэг) гэж хэт их мэдээлдэг , эсвэл бүр дордвол бодит аюул заналхийллийг (хуурамч сөрөг) алддаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглах вэ ). Хэт их худал сэрэмжлүүлэг нь хамгаалалтын багийг дарж, сэрэмжлүүлгийн ядаргаа (AI-ийн амласан үр ашгийг бууруулна), харин алдаатай илрүүлэлт нь байгууллагыг ил болгодог. Зохистой тэнцвэрт байдалд зориулж үүсгэгч загваруудыг тааруулах нь хэцүү байдаг. Орчин бүр өвөрмөц бөгөөд хиймэл оюун ухаан нь тэр даруйдаа хамгийн оновчтой ажиллахгүй байж магадгүй юм. Тасралтгүй суралцах нь бас хоёр талдаа иртэй сэлэм юм – хэрэв хиймэл оюун ухаан нь хазайсан санал хүсэлт эсвэл өөрчлөгдөж буй орчноос суралцвал түүний нарийвчлал нь өөрчлөгдөж болно. Аюулгүй байдлын багууд хиймэл оюун ухааны гүйцэтгэлийг хянаж, босго хэмжээг тохируулах эсвэл загваруудад залруулах санал хүсэлт өгөх ёстой. Өндөр эрсдэлтэй нөхцөл байдалд (чухал дэд бүтцийн халдлагыг илрүүлэх гэх мэт) AI-ийн зөвлөмжийг тодорхой хугацаанд одоогийн системүүдтэй зэрэгцүүлэн ажиллуулж, зөрчилдөөн биш харин нийцэж, нөхөж байх нь зүйтэй.

  • Өгөгдлийн нууцлал ба алдагдах: Хиймэл оюун ухаант системүүд нь сургалт, үйл ажиллагаанд ихэвчлэн их хэмжээний өгөгдөл шаарддаг. Хэрэв эдгээр загварууд нь үүлэн дээр суурилсан эсвэл зохих ёсоор тусгаарлагдаагүй бол нууц мэдээлэл алдагдах эрсдэлтэй. Хэрэглэгчид санамсаргүйгээр хувийн мэдээлэл эсвэл хувийн мэдээллийг хиймэл оюун ухааны үйлчилгээнд оруулах (Нууц болсон ослын тайланг хураангуйлахыг ChatGPT-ээс асуугаарай) энэ өгөгдөл нь загварын мэдлэгийн нэг хэсэг болж болзошгүй. Үнэхээр сүүлийн үеийн судалгаагаар хиймэл хиймэл оюун ухааны хэрэгслийн оролтын 55% нь нууцлаг эсвэл хувийн мэдээллийг агуулсан болохыг , өгөгдөл алдагдсантай холбоотой ноцтой санаа зовоосон асуудал үүсгэж байна ( Хиймэл оюун санааны аюулгүй байдал: чиг хандлага, аюул заналхийлэл, бууруулах стратеги ). Нэмж дурдахад, хэрэв хиймэл оюун ухаан нь дотоод өгөгдөл дээр сургагдсан бөгөөд тодорхой арга замаар асуусан бол тэр эмзэг өгөгдлийн хэсгүүдийг өөр хэн нэгэнд гаргаж Байгууллагууд өгөгдөлтэй харьцах хатуу бодлогыг (жишээ нь, эмзэг материалд газар дээр нь эсвэл хувийн хиймэл оюун ухаан ашиглах) хэрэгжүүлж, нууц мэдээллийг олон нийтийн хиймэл оюун ухааны хэрэгсэлд оруулахгүй байх талаар ажилчдаа сургах ёстой. Хувийн мэдээллийг нууцлалын журам (GDPR гэх мэт) мөн хүчин төгөлдөр мөрдөгдөж байна – зохих зөвшөөрөл, хамгаалалтгүйгээр хиймэл оюун ухааныг сургахад хувийн мэдээллийг ашиглах нь хууль зөрчиж болзошгүй.

  • Загварын аюулгүй байдал ба манипуляци: Хиймэл оюун ухаантай загварууд өөрсдөө зорилтот бүлэг болж чаддаг. Дайснууд загварт хордуулах , хорлонтой эсвэл төөрөгдүүлсэн мэдээлэл өгөх оролдлого хийж болох бөгөөд ингэснээр хиймэл оюун ухаан буруу хэв маягт суралцдаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ ). Жишээлбэл, халдагчид аюул заналхийлсэн Intel-ийн өгөгдлийг хордуулж болзошгүй тул хиймэл оюун ухаан нь халдагчийн өөрийн хортой програмыг хортой гэж танихгүй. Өөр нэг тактик бол шуурхай тарилга эсвэл гаралтын аргачлал бөгөөд халдагчид хиймэл оюун ухаанд санамсаргүй байдлаар ажиллахад хүргэдэг оролтуудыг гаргах арга замыг олдог - магадгүй аюулгүй байдлын хамгаалалтын хашлагыг үл тоомсорлож, эсвэл хийх ёсгүй мэдээллийг (дотоод сануулга эсвэл өгөгдөл гэх мэт) ил гаргадаг. загвараас зайлсхийх эрсдэл бий : халдагчид хиймэл оюун ухааныг хуурахын тулд тусгайлан боловсруулсан оролтыг боловсруулсан. Бид үүнийг сөрөг жишээнүүдээс харж байна - хүний ​​ердийн зүйл гэж үздэг боловч хиймэл оюун ухаан буруу ангилдаг бага зэрэг бухимдсан өгөгдөл. AI хангамжийн сүлжээг аюулгүй байлгах (өгөгдлийн бүрэн бүтэн байдал, загварын хандалтын хяналт, эсэргүүцлийн бат бөх байдлын тест) нь эдгээр хэрэгслийг ашиглах үед кибер аюулгүй байдлын шинэ боловч зайлшгүй шаардлагатай хэсэг юм ( Кибер аюулгүй байдалд Generative AI гэж юу вэ? - Palo Alto Networks ).

  • Хэт их найдлага ба ур чадварын элэгдэл: Байгууллагууд хиймэл оюун ухаанаас хэт хамааралтай болж, хүний ​​ур чадвар алдагдах эрсдэлтэй. Хэрэв бага шинжээчид хиймэл оюун ухааны үр дүнд сохроор итгэдэг бол хиймэл оюун ухаан боломжгүй эсвэл буруу үед шаардлагатай шүүмжлэлтэй сэтгэлгээ, зөн совингоо хөгжүүлэхгүй байж магадгүй юм. Үүнээс зайлсхийх хувилбар бол маш сайн хэрэгсэлтэй, гэхдээ тэдгээр хэрэгслүүд уналтад орвол хэрхэн ажиллахаа мэдэхгүй хамгаалалтын баг юм (автомат нисгэгчид хэт их найдаж байгаа нисгэгчидтэй адил). Хиймэл оюун ухааны тусламжгүйгээр тогтмол дасгал сургуулилт хийх, хиймэл оюун ухаан нь алдаагүй онгод биш харин туслагч гэсэн сэтгэлгээг төлөвшүүлэх нь хүний ​​шинжээчдийг хурц байлгахад чухал ач холбогдолтой. Хүмүүс эцсийн шийдвэр гаргагч хэвээр байх ёстой, ялангуяа өндөр нөлөө бүхий шүүлтийн хувьд.

  • Ёс зүй ба дагаж мөрдөх сорилтууд: Кибер аюулгүй байдалд хиймэл оюун ухааныг ашиглах нь ёс зүйн асуултуудыг бий болгож, зохицуулалтын нийцлийн асуудлыг үүсгэж болзошгүй. Жишээлбэл, хиймэл оюун ухааны систем нь гажиг зэргээс болж ажилтныг хорлонтой хүн гэж буруугаар тооцвол тухайн хүний ​​нэр хүнд, карьерыг үндэслэлгүйгээр гэмтээж болно. AI-аас гаргасан шийдвэрүүд нь тунгалаг ("хар хайрцаг"-ын асуудал) байж болох тул аудиторууд эсвэл зохицуулагчдад яагаад тодорхой арга хэмжээ авсныг тайлбарлахад хэцүү болгодог. Хиймэл оюун ухаанаар үүсгэсэн контент улам бүр түгээмэл болж байгаа тул ил тод байдлыг хангах, хариуцлагыг хадгалах нь нэн чухал юм. Зохицуулагчид хиймэл оюун ухааныг шалгаж эхэлж байна – жишээлбэл, ЕХ-ны хиймэл оюун ухааны тухай хууль нь “өндөр эрсдэлтэй” хиймэл оюун ухааны системд шаардлага тавих бөгөөд кибер аюулгүй байдлын хиймэл оюун ухаан энэ ангилалд багтаж магадгүй юм. Компаниуд эдгээр зохицуулалтыг дагаж мөрдөж, үүсмэл хиймэл оюун ухааныг хариуцлагатай ашиглахын тулд NIST AI Эрсдэлийн удирдлагын тогтолцоо зэрэг стандартыг дагаж мөрдөх шаардлагатай болно ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглах вэ? Дэлхийн бодит 10 жишээ ). Дагаж мөрдөх байдал нь лиценз олгоход ч хамаатай: нээлттэй эх сурвалж эсвэл гуравдагч этгээдийн загварыг ашиглах нь тодорхой хэрэглээг хязгаарласан эсвэл хуваалцах сайжруулалтыг шаарддаг нөхцөлтэй байж болно.

Дүгнэж хэлэхэд, хиймэл хиймэл оюун ухаан нь мөнгөн сум биш бөгөөд хэрэв болгоомжтой хэрэгжүүлэхгүй бол бусдыг шийдэж байгаа ч шинэ сул талуудыг бий болгож чадна. 2024 оны Дэлхийн эдийн засгийн форумын судалгаагаар байгууллагуудын ~47% нь халдагчдын үүсгэсэн хиймэл оюун ухааны дэвшлийг гол асуудал болгон дурдаж, энэ нь "үүсгэх хиймэл оюун ухааны хамгийн их нөлөөлөл" ( [PDF] Дэлхийн кибер аюулгүй байдлын төлөв 2025 | Дэлхийн эдийн засгийн форум ) ( Generative L. Compact AI: of C. ). Тиймээс байгууллагууд тэнцвэртэй хандлагыг баримтлах ёстой: AI-ийн ашиг тусыг ашиглахын зэрэгцээ эдгээр эрсдлийг засаглал, туршилт, хүний ​​хяналтаар удирдан зохицуулах. Дараа нь бид энэ тэнцвэрт байдалд хэрхэн хүрэх талаар ярилцах болно.

Ирээдүйн төлөв: Генератив AI-ийн кибер аюулгүй байдалд хувьсан өөрчлөгдөж буй үүрэг

Цаашид хиймэл оюун ухаан нь кибер аюулгүй байдлын стратегийн салшгүй хэсэг болохын зэрэгцээ кибер дайснууд үргэлжлүүлэн ашиглах хэрэгсэл болох төлөвтэй байна. Хашааны хоёр талд хиймэл оюун ухаан суурилуулснаар муур хулгана хөдөлгөөн Хиймэл оюун ухаан нь ойрын жилүүдэд кибер аюулгүй байдлыг хэрхэн бий болгох талаар ирээдүйг харсан ойлголтуудыг энд оруулав.

  • Хиймэл оюун ухааныг сайжруулсан кибер хамгаалалт стандарт болж байна: 2025 он болон түүнээс хойш ихэнх дунд болон том байгууллагууд өөрсдийн аюулгүй байдлын үйл ажиллагаанд хиймэл оюун ухаанд суурилсан хэрэгслүүдийг нэгтгэнэ гэж бид найдаж байна. Вирусны эсрэг болон галт хана нь өнөөдөр стандарт байдаг шиг хиймэл оюун ухааны туслах нисгэгчид болон гажиг илрүүлэх системүүд аюулгүй байдлын архитектурын үндсэн бүрэлдэхүүн хэсэг болж магадгүй юм. Эдгээр хэрэгслүүд нь илүү мэргэшсэн байх магадлалтай - жишээлбэл, үүлний аюулгүй байдал, IoT төхөөрөмжийн хяналт, хэрэглээний кодын аюулгүй байдал гэх мэт нарийн тохируулсан AI загварууд бүгд нэг дор ажилладаг. Нэгэн таамаглалд дурдсанчлан, "2025 онд үүсгэсэн хиймэл оюун ухаан нь кибер аюулгүй байдлын салшгүй хэсэг болж, байгууллагууд боловсронгуй, хөгжиж буй аюул заналаас идэвхтэй хамгаалах боломжийг олгоно" ( Хэрхэн үүсгэгч хиймэл оюун ухааныг кибер аюулгүй байдалд ашиглаж болох вэ ). Хиймэл оюун ухаан нь бодит цагийн аюул заналыг илрүүлэх чадварыг сайжруулж, хариу үйлдэл үзүүлэх олон үйлдлийг автоматжуулж, аюулгүй байдлын багуудад гараар хийхээс хамаагүй их хэмжээний өгөгдлийг удирдахад тусална.

  • Тасралтгүй суралцах ба дасан зохицох: хурдан суралцаж , мэдлэгийнхээ баазыг бодит цаг хугацаанд нь шинэчлэх чадвараа сайжруулна Энэ нь жинхэнэ дасан зохицох хамгаалалтыг бий болгож магадгүй - хиймэл оюун ухаан өглөө өөр компанийг дайрч, үдээс хойш шинэ фишингийн кампанит ажлын талаар мэдэж, хариуд нь танай компанийн имэйл шүүлтүүрийг аль хэдийн тохируулсан гэж төсөөлөөд үз дээ. Үүлэн дээр суурилсан хиймэл оюун ухааны аюулгүй байдлын үйлчилгээ нь ийм төрлийн хамтын сургалтыг хөнгөвчлөх боломжтой бөгөөд нэг байгууллагаас нэрээ нууцалсан мэдээлэл нь бүх захиалагчдад ашиг тусаа өгдөг (intel хуваалцахтай адил боловч автоматжуулсан). Гэсэн хэдий ч энэ нь нууц мэдээллийг хуваалцахаас зайлсхийх, халдагчид хуваалцсан загварт муу мэдээлэл оруулахаас сэргийлэхийн тулд болгоомжтой ажиллах шаардлагатай болно.

  • Хиймэл оюун ухаан ба кибер аюулгүй байдлын авъяас чадварын нэгдэл: Кибер аюулгүй байдлын мэргэжилтнүүдийн ур чадвар нь хиймэл оюун ухаан, мэдээллийн шинжлэх ухааны ур чадварыг багтаахын тулд хөгжинө. Өнөөдрийн шинжээчид асуулгын хэл болон скриптийг сурдаг шиг маргаашийн шинжээчид хиймэл оюун ухааны загваруудыг байнга нарийн тааруулж эсвэл хиймэл оюун ухаанд зориулж "тоглуулах ном" бичиж болно. "AI аюулгүй байдлын сургагч багш" эсвэл "Цахим аюулгүй байдлын хиймэл оюун ухааны инженер" гэх мэт шинэ үүргийг олж харж магадгүй - AI хэрэгслийг байгууллагын хэрэгцээнд нийцүүлэн тохируулах, гүйцэтгэлийг баталгаажуулах, аюулгүй ажиллагааг хангах чиглэлээр мэргэшсэн хүмүүс. Нөгөө талаас кибер аюулгүй байдлын асуудал нь хиймэл оюун ухааны хөгжилд улам бүр нөлөөлнө. AI системийг эхнээс нь хамгаалалтын функцээр (аюулгүй архитектур, хөндлөнгийн хөндлөнгийн илрүүлэлт, AI шийдвэрт зориулсан аудитын бүртгэл гэх мэт) бүтээх бөгөөд найдвартай хиймэл оюун ухаанд (шударга, тайлбарлах боломжтой, бат бөх, найдвартай) зориулсан хүрээ нь аюулгүй байдлын чухал нөхцөл байдалд тэдгээрийг ашиглахад чиглэнэ.

  • Илүү боловсронгуй хиймэл оюун ухаанаар ажилладаг довтолгоонууд: Харамсалтай нь аюул заналхийлэл нь хиймэл оюун ухаантай хамт хөгжих болно. Бид тэг өдрийн эмзэг байдлыг илрүүлэх, өндөр зорилтот жадны фишинг хийх (жишээ нь, хиймэл оюун ухаан сошиал медиа ашиглан төгс зохицсон өгөөш бий болгох) болон биометрийн баталгаажуулалтыг давж гарах эсвэл залилан мэхлэхийн тулд итгэл үнэмшилтэй гүн хуурмаг дуу хоолой, видеог үүсгэх зорилгоор хиймэл оюун ухааныг илүү олон удаа ашиглах болно гэж найдаж байна. Хүний хамгийн бага хяналттай олон үе шаттай дайралтуудыг (тагнуул, мөлжлөг, хажуугийн хөдөлгөөн гэх мэт) бие даан хийж чадах автомат хакерын агентууд гарч ирж магадгүй юм. Энэ нь хамгаалагчдыг хиймэл оюун ухаанд найдахад шахах болно – үндсэндээ автоматжуулалт ба автоматжуулалт . Зарим халдлага нь машины хурдаар тохиолдож болно, жишээ нь хиймэл оюун ухаант роботууд аль нь шүүлтүүрийг давж гарахыг харахын тулд мянга мянган фишинг цахим шуудангийн өөрчлөлтийг оролддог. Кибер хамгаалалт нь ижил хурдтай, уян хатан байдлаар ажиллах шаардлагатай болно ( Кибер аюулгүй байдал дахь хиймэл хиймэл оюун ухаан гэж юу вэ? - Palo Alto Networks ).

  • Аюулгүй байдлын зохицуулалт ба ёс зүйн хиймэл оюун ухаан: Хиймэл оюун ухаан нь кибер аюулгүй байдлын чиг үүргүүдэд гүн гүнзгий шингээх тусам эдгээр хиймэл оюун ухааны системийг хариуцлагатай ашиглахын тулд илүү их хяналт, зохицуулалт хийх болно. Аюулгүй байдлын чиглэлээр хиймэл оюун ухаанд тусгайлан зориулсан хүрээ, стандартыг бид хүлээж болно. Засгийн газар ил тод байдлын удирдамжийг тогтоож болно, тухайлбал, аюулгүй байдлын чухал шийдвэрүүдийг (ажилтны сэжигтэй хортой үйл ажиллагаанд хандах эрхийг цуцлах гэх мэт) хүний ​​хяналтгүйгээр хиймэл оюун ухаан дангаар гаргаж болохгүй гэх мэт. Хиймэл оюун ухаан нь хэвийсэн, бат бөх, аюулгүй байдлын хувьд үнэлэгдсэн гэдгийг худалдан авагчдад баталгаажуулахын тулд хиймэл оюун ухааны аюулгүй байдлын бүтээгдэхүүний гэрчилгээ байж болно. Цаашилбал, хиймэл оюун ухаантай холбоотой кибер аюул заналхийллийн эргэн тойронд олон улсын хамтын ажиллагаа хөгжиж магадгүй; жишээлбэл, хиймэл оюун ухаанаар үүсгэгдсэн хуурамч мэдээлэл эсвэл хиймэл оюун ухаанаар удирддаг кибер зэвсгийн эсрэг хэм хэмжээг зохицуулах тухай гэрээ.

  • Өргөн хүрээний хиймэл оюун ухаан ба мэдээллийн технологийн экосистемтэй нэгтгэх: Кибер аюулгүй байдлын үеийн хиймэл оюун ухаан нь бусад хиймэл оюун ухааны системүүд болон мэдээллийн технологийн удирдлагын хэрэгслүүдтэй нэгдэх магадлалтай. Жишээлбэл, сүлжээний оновчлолыг удирддаг хиймэл оюун ухаан нь өөрчлөлтүүд цоорхойг нээхгүй байхын тулд хамгаалалтын AI-тай ажиллах боломжтой. Хиймэл оюун ухаанд суурилсан бизнесийн аналитик нь гажуудлыг (халдлагын улмаас вэбсайтын асуудалтай холбоотой борлуулалт огцом буурах гэх мэт) уялдуулахын тулд аюулгүй байдлын хиймэл оюун ухаантай өгөгдлийг хуваалцаж болно. Үндсэндээ хиймэл оюун ухаан нь даршилсан орчинд амьдрахгүй, энэ нь байгууллагын үйл ажиллагааны томоохон ухаалаг бүтцийн нэг хэсэг байх болно. Энэ нь үйл ажиллагааны өгөгдөл, аюул заналхийллийн өгөгдөл, тэр ч байтугай физик аюулгүй байдлын өгөгдлийг хиймэл оюун ухаанаар нэгтгэж, байгууллагын аюулгүй байдлын төлөв байдлыг 360 градусаар харах боломжийг олгодог эрсдлийн цогц менежментийн боломжийг нээж өгдөг.

Урт хугацаанд хиймэл оюун ухаан нь тэнцвэрийг хамгаалагчдын талд эргүүлэхэд тусална гэж найдаж байна. Орчин үеийн мэдээллийн технологийн орчны цар хүрээ, нарийн төвөгтэй байдлыг зохицуулснаар хиймэл оюун ухаан нь кибер орон зайг илүү хамгаалалттай болгож чадна. Гэсэн хэдий ч, энэ бол аялал бөгөөд бид эдгээр технологийг боловсронгуй болгож, тэдэнд зохих ёсоор итгэж сурах тусам улам их өвдөлт гарах болно. AI-г хариуцлагатай нэвтрүүлэхэд хөрөнгө оруулалт хийж, мэдээлэлтэй байж, ирээдүйн аюул заналхийллийг даван туулах хамгийн сайн байр суурьтай байгууллагууд байх болно.

Gartner-ийн сүүлийн үеийн кибер аюулгүй байдлын чиг хандлагын тайланд дурдсанчлан, "Хиймэл оюун ухаан ашиглах тохиолдол (болон эрсдэлүүд) гарч ирж байгаа нь өөрчлөлтийг хийхэд дарамт учруулж байна" ( Cybersecurity Trends: Resilience Through Transformation - Gartner ). Дасан зохицсон хүмүүс хиймэл оюун ухааныг хүчирхэг холбоотон болгон ашиглах болно; хоцрогдсон хүмүүс хиймэл оюун ухаанаар хүчирхэгжсэн дайснуудаас илүү гарч ирж магадгүй юм. Ойрын хэдэн жил бол хиймэл оюун ухаан нь кибер тулааны талбарыг хэрхэн өөрчлөхийг тодорхойлох чухал үе байх болно.

Кибер аюулгүй байдалд хиймэл хиймэл оюун ухааныг нэвтрүүлэх практик зөвлөмжүүд

Кибер аюулгүй байдлын стратегидаа хиймэл оюун ухааныг хэрхэн ашиглах талаар үнэлж буй бизнесүүдэд хариуцлагатай, үр дүнтэй үрчлүүлэхэд туслах практик зөвлөмж, зөвлөмжийг

  1. Боловсрол, сургалтаас эхэл: Аюулгүй байдлын баг (болон мэдээллийн технологийн өргөн хүрээний ажилтнууд) хиймэл хиймэл оюун ухаан юу хийж болох, юу хийж болохгүйг ойлгосон эсэхийг шалгаарай. Хиймэл оюун ухаанд суурилсан аюулгүй байдлын хэрэгслүүдийн үндсэн зарчмуудын талаар сургалт явуулж, бүх ажилчдад AI-тай холбоотой аюул заналхийллийг хамгаалахын тулд аюулгүй байдлын мэдлэг олгох хөтөлбөрөө Жишээлбэл, хиймэл оюун ухаан хэрхэн маш үнэмшилтэй фишинг залилан, хуурамч дуудлага үүсгэж болохыг ажилтнууддаа заа. Үүний зэрэгцээ ажилчдад хиймэл оюун ухааны хэрэгслийг ажилдаа аюулгүй, зөвшөөрөгдсөн хэрэглээнд сурга. Мэдээлэл сайтай хэрэглэгчид хиймэл оюун ухаантай буруу харьцах эсвэл хиймэл оюун ухаанаар сайжруулсан халдлагын золиос болох магадлал бага байдаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ).

  2. Хиймэл оюун ухааныг ашиглах тодорхой бодлогыг тодорхойл: Хиймэл оюун ухааныг ямар ч хүчирхэг технологитой адил засаглалтай болго. AI хэрэгслийг хэн ашиглаж болох, ямар хэрэгсэлд хориг тавих, ямар зорилгоор ашиглахыг тодорхойлсон бодлогыг боловсруул. эмзэг өгөгдөлтэй ажиллах удирдамжийг (жишээлбэл, гадны хиймэл оюун ухааны үйлчилгээнд нууц мэдээллийг оруулахгүй байх Жишээлбэл, та зөвхөн аюулгүй байдлын багийн гишүүдэд ослын хариу арга хэмжээ авахын тулд дотоод хиймэл оюун ухааны туслахыг ашиглахыг зөвшөөрч болох ба маркетинг нь контентын хувьд шалгагдсан хиймэл оюун ухааныг ашиглах боломжтой - бусад бүх хүмүүст хязгаарлалт тавьдаг. Одоо олон байгууллага мэдээллийн технологийн бодлогодоо хиймэл хиймэл оюун ухааныг тодорхой тусгаж байгаа бөгөөд тэргүүлэгч стандартын байгууллагууд шууд хориглохоос илүү аюулгүй ашиглалтын бодлогыг дэмждэг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Эдгээр дүрэм, тэдгээрийн үндэслэлийг бүх ажилчдад мэдэгдэхээ мартуузай.

  3. “Сүүдрийн хиймэл оюун ухаан” болон хэрэглээг багасгах: “Сүүдрийн AI” нь IT-ийн сүүдрийн нэгэн адил ажилчид IT-ийн мэдлэггүйгээр хиймэл оюун ухааны хэрэгсэл, үйлчилгээг ашиглаж эхлэх үед үүсдэг (жишээ нь, зөвшөөрөлгүй AI кодын туслах ашиглаж буй хөгжүүлэгч). Энэ нь үл үзэгдэх эрсдэлийг үүсгэж болзошгүй юм. Зөвшөөрөлгүй хиймэл оюун ухааны хэрэглээг илрүүлэх, хянах арга хэмжээг хэрэгжүүлэх . Сүлжээний хяналт нь алдартай AI API-уудтай холболтыг тэмдэглэж, судалгаа эсвэл багаж хэрэгслийн аудит нь ажилтнууд юу ашиглаж байгааг илрүүлж чадна. Зөвшөөрөгдсөн хувилбаруудыг санал болго, ингэснээр сайн санаат ажилчдыг хууран мэхлэх хүсэл төрүүлэхгүй байх (жишээ нь хүмүүст хэрэгтэй гэж үзвэл албан ёсны ChatGPT Enterprise бүртгэлийг өгөөрэй). Аюулгүй байдлын багууд хиймэл оюун ухааны хэрэглээг ил тод болгосноор эрсдлийг үнэлж, удирдаж чадна. Хяналт-шинжилгээ нь бас чухал ач холбогдолтой – AI хэрэгслийн үйл ажиллагаа, гаралтыг боломжтой бол бүртгэх тул хиймэл оюун ухаанд нөлөөлсөн шийдвэрийн аудитын мөр байдаг ( Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ).

  4. Хиймэл оюун ухааныг хамгаалан ашиглах – Бүү хоцрогдол: Халдагчид хиймэл оюун ухааныг ашиглах болно гэдгийг хүлээн зөвшөөр, тиймээс таны хамгаалалт ч мөн адил байх ёстой. Хиймэл хиймэл оюун ухаан нь таны аюулгүй байдлын үйл ажиллагаанд нэн даруй туслах боломжтой хэд хэдэн өндөр нөлөөлөлтэй хэсгийг тодорхойлж (магадгүй дохиоллын систем эсвэл автомат бүртгэлийн дүн шинжилгээ) туршилтын төслүүдийг хэрэгжүүлээрэй. Хурдан хөдөлж буй аюул заналыг эсэргүүцэхийн тулд хиймэл оюун ухааны хурд, цар хүрээг ашиглан хамгаалалтаа нэмэгдүүлээрэй Цахилгаан аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? Дэлхийн бодит 10 жишээ ). Хортой програмын тайланг нэгтгэн дүгнэхэд хиймэл оюун ухаан ашиглах эсвэл аюулын эсрэг асуулга үүсгэх зэрэг энгийн интеграцчлалууд ч шинжээчдийн цагийг хэмнэж чадна. Жижиг зүйлээс эхэлж, үр дүнг үнэлж, давт. Амжилт нь хиймэл оюун ухааныг илүү өргөн хүрээнд нэвтрүүлэх нөхцөлийг бүрдүүлэх болно. Зорилго нь хиймэл оюун ухааныг хүч үржүүлэгч болгон ашиглах явдал юм – жишээлбэл, фишинг халдлага таны тусламжийн ширээг давж байгаа бол түүний эзлэхүүнийг идэвхтэй бууруулахын тулд AI имэйл ангилагчийг байрлуул.

  5. Аюулгүй, ёс зүйтэй хиймэл оюун ухааны практикт хөрөнгө оруулалт хийх: Хиймэл оюун ухааныг бий болгохдоо аюулгүй хөгжүүлэлт, байршуулалтын туршлагыг дагаж мөрдөөрэй. Өгөгдлийн хяналтыг хадгалахын тулд нууцлаг ажлуудад хувийн эсвэл өөрөө зохион байгуулсан загваруудыг ашигла Хэрэв гуравдагч талын хиймэл оюун ухааны үйлчилгээг ашиглаж байгаа бол тэдгээрийн аюулгүй байдал, нууцлалын арга хэмжээг (шифрлэлт, өгөгдөл хадгалах бодлого гэх мэт) шалгана уу. Хиймэл оюун ухааны хэрэглүүрүүдэд хэвийх, тайлбарлах чадвар, бат бөх байдал зэрэг асуудлуудыг системтэйгээр шийдвэрлэхийн тулд хиймэл оюун ухааны эрсдэлийн удирдлагын тогтолцоог (NIST-ийн AI эрсдэлийн удирдлагын тогтолцоо эсвэл ISO/IEC удирдамж) тусга . Загварын шинэчлэлт/засваруудыг засвар үйлчилгээний нэг хэсэг болгон төлөвлөөрэй – AI загваруудад ч “эмзэг” байж болно (жишээ нь, хэрэв тэд дрифт хийж эхлэх юм уу эсвэл загварт шинэ төрлийн дайсагнасан довтолгоо илэрсэн бол дахин сургах шаардлагатай байж болно). Аюулгүй байдал, ёс зүйг хиймэл оюун ухааны хэрэглээндээ оруулснаар та үр дүнд итгэх итгэлийг бий болгож, шинээр гарч ирж буй дүрэм журмын хэрэгжилтийг баталгаажуулдаг.

  6. Хүмүүсийг гогцоонд байлга: Кибер аюулгүй байдлын талаарх хүний ​​дүгнэлтийг бүрэн орлуулах биш харин туслах зорилгоор хиймэл оюун ухааныг ашигла. Хүний баталгаажуулалт шаардлагатай шийдвэрийн цэгүүдийг тодорхойлох (жишээлбэл, хиймэл оюун ухаан нь ослын тайлангийн төслийг боловсруулж болох боловч шинжээч үүнийг түгээхээс өмнө хянадаг; эсвэл хиймэл оюун ухаан нь хэрэглэгчийн бүртгэлийг хаахыг санал болгож болох боловч хүн энэ үйлдлийг зөвшөөрдөг). Энэ нь хиймэл оюун ухааны алдааг шалгахгүй байхаас сэргийлээд зогсохгүй танай багт хиймэл оюун ухаанаас суралцахад тусална. Хамтарсан ажлын урсгалыг дэмж: шинжээчид хиймэл оюун ухааны үр дүнг асууж, эрүүл саруул байдлыг шалгахдаа тухтай байх ёстой. Цаг хугацаа өнгөрөхөд энэхүү харилцах цонх нь хиймэл оюун ухаан (санал хүсэлтээр дамжуулан) болон шинжээчдийн ур чадварыг сайжруулж чадна. Үндсэндээ, хиймэл оюун ухаан болон хүний ​​давуу талууд бие биенээ нөхөж байхаар үйл явцаа зохион бүтээгээрэй – AI нь хэмжээ, хурдыг зохицуулдаг, хүмүүс тодорхойгүй байдал болон эцсийн шийдвэрийг зохицуулдаг.

  7. Хэмжих, хянах, тохируулах: Эцэст нь, хиймэл оюун ухаант хэрэглүүрүүдийг аюулгүй байдлын экосистемийн амьд бүрэлдэхүүн хэсэг болгон авч үзье. Тэдний гүйцэтгэлийг тасралтгүй - тэд ослын хариу өгөх хугацааг багасгаж байна уу? Эртхэн аюул заналхийлсэн үү? Хуурамч эерэг ханш хэр хандлагатай байна вэ? Багийн санал хүсэлтийг асуу: AI-ийн зөвлөмжүүд ашигтай юу, эсвэл чимээ шуугиан үүсгэж байна уу? Загваруудыг боловсронгуй болгох, сургалтын өгөгдлийг шинэчлэх, хиймэл оюун ухааныг хэрхэн нэгтгэхийг тохируулахын тулд эдгээр хэмжүүрийг ашиглана уу. Кибер аюул заналхийлэл, бизнесийн хэрэгцээ өөрчлөгдөж, үр дүнтэй байхын тулд таны AI загваруудыг үе үе шинэчилж, давтан сургаж байх ёстой. Загварын засаглалын төлөвлөгөөг хэн хариуцах, түүнийг хэр олон удаа хянаж байх зэргийг багтаасан байх. Та хиймэл оюун ухааны амьдралын мөчлөгийг идэвхтэй удирдсанаар энэ нь өр төлбөр биш харин хөрөнгө хэвээр үлдэх болно.

Дүгнэж хэлэхэд, хиймэл оюун ухаан нь кибер аюулгүй байдлын чадавхийг ихээхэн нэмэгдүүлэх боломжтой боловч амжилттай нэвтрүүлэхийн тулд сайтар төлөвлөж, байнгын хяналт шаарддаг. Хүмүүсээ сургаж, тодорхой удирдамж гаргаж, хиймэл оюун ухааныг тэнцвэртэй, аюулгүй байдлаар нэгтгэдэг бизнесүүд аюул заналыг илүү хурдан, ухаалаг удирдахын үр шимийг хүртэх болно. Эдгээр баримтууд нь хүний ​​​​туршлагыг AI автоматжуулалттай хослуулж, засаглалын үндсийг хамарч, AI технологи болон аюул заналхийллийн ландшафт хоёулаа зайлшгүй хувьсан өөрчлөгдөхөд авхаалж самбаагаа хадгалах зэрэг замын зураглалыг бий болгодог.

Эдгээр практик алхмуудыг хийснээр байгууллагууд “Цахим аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглах вэ?” гэсэн – зөвхөн онолын хувьд ч бус өдөр тутмын практикт – ингэснээр улам бүр дижитал болон хиймэл оюун ухаанд суурилсан ертөнцөд өөрсдийн хамгаалалтыг бэхжүүлдэг. ( Үйлдвэрлэлийн хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглах вэ )

Үүний дараа уншихыг хүсч болох цагаан цааснууд:

🔗 Хиймэл оюун ухаан орлож чадахгүй ажлын байрууд ба хиймэл ямар ажлыг орлох вэ?
Аль үүрэг нь автоматжуулалтаас аюулгүй, аль нь аюулгүй биш болохыг дэлхийн хэтийн төлөвийг судлаарай.

🔗 AI нь хөрөнгийн зах зээлийг урьдчилан таамаглаж чадах уу?
AI-ийн зах зээлийн хөдөлгөөнийг урьдчилан таамаглах чадварын хязгаарлалт, ололт амжилт, үлгэр домогуудыг нарийвчлан авч үзье.

🔗 Хиймэл оюун ухаан хүний ​​оролцоогүйгээр юу хийж чадах вэ?
AI хаана бие даан ажиллах боломжтой, хаана хүний ​​хяналт чухал хэвээр байгааг ойлгоорой.

Блог руу буцах