Танилцуулга
Шинэ контент эсвэл таамаглал үүсгэх чадвартай хиймэл оюун ухааны систем болох үүсгэгч хиймэл оюун ухаан нь кибер аюулгүй байдлын салбарт өөрчлөлтийн хүч болж гарч ирж байна. OpenAI-ийн GPT-4 зэрэг хэрэгслүүд нь нарийн төвөгтэй өгөгдлийг шинжлэх, хүн шиг текст үүсгэх чадварыг харуулсан бөгөөд энэ нь кибер аюулаас хамгаалах шинэ арга барилыг бий болгосон. Кибер аюулгүй байдлын мэргэжилтнүүд болон салбар бүрийн бизнесийн шийдвэр гаргагчид үүсгэгч хиймэл оюун ухаан нь хөгжиж буй халдлагаас хамгаалах чадварыг хэрхэн бэхжүүлж болохыг судалж байна. Санхүү, эрүүл мэндийн салбараас эхлээд жижиглэн худалдаа, засгийн газар хүртэл бүх салбарын байгууллагууд үүсгэгч хиймэл оюун ухаан нь эсрэг тэмцэхэд тусалж болох нарийн төвөгтэй фишинг оролдлого, хортой програм хангамж болон бусад аюул заналхийлэлтэй тулгардаг. Энэхүү цагаан баримт бичигт бид үүсгэгч хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглаж болохыг , бодит ертөнцийн хэрэглээ, ирээдүйн боломжууд, нэвтрүүлэх чухал асуудлуудыг онцолсон болно.
Үүсгэн байгуулагч хиймэл оюун ухаан нь уламжлалт аналитик хиймэл оюун ухаанаас зөвхөн хэв маягийг илрүүлэхээс гадна үүсгэх - хамгаалалтын сургалтын халдлагыг дуурайлган хийх эсвэл нарийн төвөгтэй аюулгүй байдлын өгөгдлийн байгалийн хэлний тайлбарыг гаргах гэх мэт. Энэхүү хос чадвар нь үүнийг хоёр талдаа иртэй сэлэм болгодог: энэ нь хүчирхэг шинэ хамгаалалтын хэрэгслүүдийг санал болгодог боловч аюул заналхийлэгчид үүнийг ашиглаж болно. Дараах хэсгүүдэд кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухааныг ашиглах өргөн хүрээний тохиолдлуудыг авч үзэх бөгөөд фишинг илрүүлэхийг автоматжуулахаас эхлээд ослын хариу үйлдлийг сайжруулах хүртэл. Мөн бид эдгээр хиймэл оюун ухааны инновацийн амлаж буй ашиг тусыг, мөн байгууллагуудын зохицуулах ёстой эрсдэлүүд (хиймэл оюун ухааны "хиймэл оюун ухааны "хий үзэгдэл" эсвэл дайсагнасан буруу ашиглалт гэх мэт)-ийн талаар авч үзэх болно. Эцэст нь бид бизнес эрхлэгчдэд үүсгэн байгуулагч хиймэл оюун ухааныг кибер аюулгүй байдлын стратегидаа үнэлж, хариуцлагатайгаар нэгтгэхэд нь туслах практик зөвлөмжийг өгдөг.
Кибер аюулгүй байдлын салбар дахь үүсгэгч хиймэл оюун ухаан: Тойм
Кибер аюулгүй байдлын үеийн хиймэл оюун ухаан гэдэг нь аюулгүй байдлын ажлуудад туслах зорилгоор ойлголт, зөвлөмж, код, эсвэл бүр синтетик өгөгдөл үүсгэж чаддаг хиймэл оюун ухааны загваруудыг хэлдэг - ихэвчлэн том хэлний загварууд эсвэл бусад мэдрэлийн сүлжээнүүд. Зөвхөн урьдчилан таамаглах загваруудаас ялгаатай нь үүсгэгч хиймэл оюун ухаан нь сургалтын өгөгдөл дээрээ үндэслэн нөхцөл байдлыг дуурайж, хүн уншиж болох гаралтыг (жишээ нь тайлан, сэрэмжлүүлэг, эсвэл бүр хортой кодын дээж) гаргаж чаддаг. Энэхүү чадварыг өмнөхөөсөө илүү динамик аргаар аюул заналхийллийг урьдчилан таамаглах, илрүүлэх, хариу арга хэмжээ авахад Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ). Жишээлбэл, үүсгэгч загварууд нь асар том бүртгэл эсвэл аюул заналхийллийн мэдээллийн санг шинжилж, товч дүгнэлт эсвэл санал болгосон үйлдэл гаргаж, бараг л аюулгүй байдлын багуудын хиймэл оюун ухааны "туслах" шиг ажилладаг.
Кибер хамгаалалтад зориулсан генератив хиймэл оюун ухааныг эрт хэрэгжүүлсэн нь ирээдүйтэй байгааг харуулсан. 2023 онд Майкрософт компани аюулгүй байдлын шинжээчдэд зориулсан GPT-4 хөдөлгүүртэй туслах Security Copilot Microsoft Security Copilot бол кибер аюулгүй байдлын шинэ GPT-4 AI туслах юм | The Verge ). Шинжээчид энэ системийг байгалийн хэлээр (жишээ нь "Сүүлийн 24 цагийн дотор гарсан бүх аюулгүй байдлын ослыг нэгтгэн дүгнэх" ) өдөөж болох бөгөөд хамтран туршилт нь ашигтай өгүүлэмжийн хураангуйг гаргах болно. Үүнтэй адилаар Google-ийн Аюул заналхийллийн тагнуулын хиймэл оюун ухаан нь Gemini хэмээх генератив загварыг ашиглан Google-ийн өргөн уудам аюул заналхийллийн тагнуулын мэдээллийн сангаас харилцан ярианы хайлтыг идэвхжүүлж, сэжигтэй кодыг хурдан шинжилж, хортой програм хангамжийн анчдад туслахын тулд олдворуудыг нэгтгэн дүгнэдэг ( Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Эдгээр жишээнүүд нь боломжит боломжийг харуулж байна: генератив хиймэл оюун ухаан нь нарийн төвөгтэй, том хэмжээний кибер аюулгүй байдлын өгөгдлийг боловсруулж, ойлголтыг хүртээмжтэй хэлбэрээр танилцуулж, шийдвэр гаргалтыг хурдасгаж чадна.
Үүний зэрэгцээ, үүсгэгч хиймэл оюун ухаан нь маш бодитой хуурамч контент үүсгэж чаддаг бөгөөд энэ нь симуляци болон сургалтад (мөн харамсалтай нь нийгмийн инженерчлэлийг бий болгож буй халдагчдын хувьд) ашиг тустай юм. Тодорхой хэрэглээний тохиолдлуудыг авч үзэхэд үүсгэгч хиймэл оюун ухааны нэгтгэх , шинжлэх нь түүний олон кибер аюулгүй байдлын хэрэглээний үндэс суурь болж байгааг бид харах болно. Доор бид фишингээс урьдчилан сэргийлэхээс эхлээд аюулгүй програм хангамж хөгжүүлэх хүртэлх бүх зүйлийг хамарсан гол хэрэглээний тохиолдлуудыг авч үзэх бөгөөд тус бүрийг салбар бүрт хэрхэн хэрэгжүүлж байгаа жишээнүүдийг харуулав.
Кибер аюулгүй байдалд хиймэл оюун ухааныг ашиглах гол аргууд
Зураг: Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах гол тохиолдлуудад аюулгүй байдлын багуудад зориулсан хиймэл оюун ухааны хамтран туршилт хийх, кодын эмзэг байдлын шинжилгээ, дасан зохицох аюул заналхийллийг илрүүлэх, тэг өдрийн халдлагын симуляци, сайжруулсан биометрийн аюулгүй байдал, фишинг илрүүлэх зэрэг орно ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ).
Фишинг илрүүлэх болон урьдчилан сэргийлэх
Фишинг нь хамгийн өргөн тархсан кибер аюул заналхийллийн нэг хэвээр байгаа бөгөөд хэрэглэгчдийг хортой холбоосууд дээр дарах эсвэл итгэмжлэлийг задруулахад хүргэдэг. Фишинг оролдлогыг илрүүлэх , амжилттай халдлагаас урьдчилан сэргийлэхийн тулд хэрэглэгчийн сургалтыг сайжруулах зорилгоор үүсгэгч хиймэл оюун ухааныг ашиглаж байна. Хамгаалалтын тал дээр хиймэл оюун ухааны загварууд нь дүрэмд суурилсан шүүлтүүрүүд алдаж болзошгүй фишингийн нарийн шинж тэмдгүүдийг илрүүлэхийн тулд имэйлийн агуулга болон илгээгчийн зан төлөвийг шинжилж чаддаг. Хууль ёсны болон залилангийн имэйлийн томоохон өгөгдлийн сангаас суралцсанаар үүсгэгч загвар нь луйврыг илтгэх өнгө аяс, үг хэллэг эсвэл контекст дэх гажигийг тэмдэглэж чаддаг - тэр ч байтугай дүрэм, зөв бичгийн дүрмийг нь харуулахаа больсон ч гэсэн. Үнэндээ Пало Алто Сүлжээний судлаачид үүсгэгч хиймэл оюун ухаан нь "илрэгдэхгүй байж болзошгүй фишинг имэйлийн нарийн шинж тэмдгүүдийг" тодорхойлж, байгууллагуудад луйварчдаас нэг алхам түрүүлэхэд тусалдаг болохыг тэмдэглэжээ ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто Сүлжээ ).
фишинг халдлагыг дуурайлган генератив хиймэл оюун ухааныг ашиглаж байна . Жишээлбэл, Ironscales нь байгууллагын ажилтнуудад зориулан тохируулсан хуурамч фишинг имэйлийг автоматаар үүсгэдэг GPT-д суурилсан фишинг симуляцийн хэрэгслийг нэвтрүүлсэн ( Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Эдгээр хиймэл оюун ухаанаар бүтээгдсэн имэйлүүд нь халдагчдын хамгийн сүүлийн үеийн тактикийг тусгасан бөгөөд ажилтнуудад фишинг контентыг илрүүлэхэд бодит дадлага хийх боломжийг олгодог. Халдагчид өөрсдөө илүү үнэмшилтэй өгөөш бий болгохын тулд хиймэл оюун ухааныг ашигладаг тул ийм хувийн сургалт нь маш чухал юм. Генератив хиймэл оюун ухаан нь маш өнгөлсөн фишинг мессеж үүсгэж чаддаг ч (англи хэлийг амархан илрүүлдэг байсан үе өнгөрсөн) хамгаалагчид хиймэл оюун ухаан нь ялагдашгүй биш гэдгийг олж мэдсэн. 2024 онд IBM Security-ийн судлаачид хүний бичсэн фишинг имэйлийг хиймэл оюун ухааны үүсгэсэн имэйлтэй харьцуулсан туршилт хийсэн бөгөөд "гайхалтай нь хиймэл оюун ухааны үүсгэсэн имэйлүүд зөв дүрмийн дагуу байсан ч илрүүлэхэд хялбар хэвээр байсан" ( Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Энэ нь хүний зөн совин нь хиймэл оюун ухааны тусламжтайгаар илрүүлэхтэй хослуулан хиймэл оюун ухаанаар бичигдсэн луйврын нарийн зөрчилдөөн эсвэл мета өгөгдлийн дохиог таньж чаддаг болохыг харуулж байна.
автомат хариулт эсвэл сэжигтэй имэйлийг шалгадаг шүүлтүүр үүсгэхэд ашиглаж болно . Жишээлбэл, хиймэл оюун ухааны систем нь илгээгчийн хууль ёсны байдлыг баталгаажуулахын тулд тодорхой асуултуудтай имэйлд хариулах эсвэл имэйлийн холбоос болон хавсралтыг sandbox дээр шинжлэхийн тулд LLM ашиглан дараа нь аливаа хорлонтой санааг нэгтгэн дүгнэх боломжтой. NVIDIA-ийн аюулгүй байдлын платформ Morpheus нь уламжлалт аюулгүй байдлын хэрэгслүүдтэй харьцуулахад 21% -иар сайжруулдаг болохыг тогтоожээ Кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Morpheus нь ер бусын зан авирыг (жишээлбэл, хэрэглэгч гэнэт олон гадаад хаяг руу имэйл илгээх гэх мэт) илрүүлэхийн тулд хэрэглэгчийн харилцааны хэв маягийг хүртэл профайлжуулдаг бөгөөд энэ нь фишинг имэйл илгээж буй халдлагад өртсөн бүртгэлийг илтгэж болно.
Практикт салбарын компаниуд нийгмийн инженерийн халдлагад зориулж имэйл болон вэб урсгалыг шүүхэд хиймэл оюун ухаанд итгэж эхэлж байна. Жишээлбэл, санхүүгийн компаниуд цахим залилан мэхлэлтэд хүргэж болзошгүй дүр эсгэх оролдлогыг илрүүлэхийн тулд харилцаа холбоог сканнердахын тулд үүсгэгч хиймэл оюун ухааныг ашигладаг бол эрүүл мэндийн үйлчилгээ үзүүлэгчид өвчтөний мэдээллийг фишингтэй холбоотой зөрчлөөс хамгаалахын тулд хиймэл оюун ухааныг ашигладаг. Бодит фишинг хувилбаруудыг бий болгож, хортой мессежийн шинж тэмдгийг тодорхойлсноор үүсгэгч хиймэл оюун ухаан нь фишингээс урьдчилан сэргийлэх стратегид хүчирхэг давхарга нэмж өгдөг. Гол санаа: Халдагчид тоглоомоо сайжруулахын тулд ижил технологийг ашигладаг ч хиймэл оюун ухаан фишинг халдлагыг илүү хурдан, илүү нарийвчлалтай илрүүлж, идэвхгүй болгоход тусалдаг
Хортой програм хангамж илрүүлэх болон аюул заналын шинжилгээ
Орчин үеийн хортой програм хангамж байнга хөгжиж байдаг - халдагчид вирусны эсрэг гарын үсгийг тойрч гарахын тулд шинэ хувилбаруудыг үүсгэдэг эсвэл кодыг будлиулдаг. Генератив хиймэл оюун ухаан нь хортой програм хангамжийг илрүүлэх, түүний зан төлөвийг ойлгоход шинэлэг аргуудыг санал болгодог. Нэг арга бол хортой програм хангамжийн "муу ихрүүд"-ийг үүсгэхийн тулд хиймэл оюун ухааныг ашиглах явдал юм: аюулгүй байдлын судлаачид мэдэгдэж буй хортой програм хангамжийн дээжийг генератив загварт оруулж, тухайн хортой програмын олон мутацид орсон хувилбаруудыг үүсгэж болно. Ингэснээр тэд халдагчийн хийж болох өөрчлөлтийг үр дүнтэйгээр урьдчилан таамагладаг. Эдгээр хиймэл оюун ухааны үүсгэсэн хувилбаруудыг дараа нь вирусны эсрэг болон халдлагыг илрүүлэх системийг сургахад ашиглаж болох бөгөөд ингэснээр хортой програмын өөрчлөгдсөн хувилбаруудыг ч байгальд таних боломжтой болно ( Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Энэхүү урьдчилан сэргийлэх стратеги нь хакерууд илрүүлэлтээс зайлсхийхийн тулд хортой програмаа бага зэрэг өөрчилж, хамгаалагчид шинэ гарын үсэг бичих бүртээ шаргуу ажиллах ёстой мөчлөгийг эвдэхэд тусалдаг. Нэг салбарын подкаст дээр дурдсанчлан, аюулгүй байдлын мэргэжилтнүүд одоо генератив хиймэл оюун ухааныг "сүлжээний урсгалыг дуурайж, нарийн төвөгтэй халдлагыг дуурайсан хортой ачааллыг бий болгох" зорилгоор ашиглаж, ганц тохиолдлын оронд бүхэл бүтэн аюул заналхийллийн эсрэг хамгаалалтаа стрессээр туршиж үздэг. Энэхүү дасан зохицох аюул заналхийллийг илрүүлэх нь аюулгүй байдлын хэрэгслүүд өөрөөр бол дамжин өнгөрөх полиморфик хортой програм хангамжид илүү тэсвэртэй болдог гэсэн үг юм.
хортой програм хангамжийн шинжилгээ болон урвуу инженерчлэлд тусалдаг бөгөөд энэ нь уламжлал ёсоор аюул заналхийллийн шинжээчдийн хувьд хөдөлмөр их шаарддаг ажил юм. Том хэлний загваруудад сэжигтэй код эсвэл скриптийг шалгаж, код нь юу хийх зориулалттай болохыг энгийн хэлээр тайлбарлах үүрэг даалгавар өгч болно. Бодит ертөнцийн жишээ бол VirusTotal Code Insight бөгөөд энэ нь үүсгэгч хиймэл оюун ухааны загварыг (Google-ийн Sec-PaLM) ашиглан хортой кодын байгалийн хэлний хураангуйг гаргадаг ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? 10 бодит жишээ ). Энэ нь үндсэндээ "аюулгүй байдлын кодчилолд зориулагдсан ChatGPT-ийн нэг төрөл" бөгөөд хүний шинжээчдэд аюул заналыг ойлгоход нь туслахын тулд 24/7 ажилладаг хиймэл оюун ухааны хортой програмын шинжээчийн үүрэг гүйцэтгэдэг ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Аюулгүй байдлын багийн гишүүн танил бус скрипт эсвэл хоёртын кодыг нягталж үзэхийн оронд хиймэл оюун ухаанаас шууд тайлбар авах боломжтой - жишээлбэл, "Энэ скрипт нь XYZ серверээс файл татаж аваад дараа нь системийн тохиргоог өөрчлөхийг оролддог бөгөөд энэ нь хортой програмын зан төлөвийг илтгэдэг." Энэ нь ослын хариу үйлдлийг эрс хурдасгадаг бөгөөд шинжээчид шинэ хортой програм хангамжийг урьд өмнөхөөсөө илүү хурдан ангилж, ойлгож чаддаг.
их хэмжээний өгөгдлийн багц дахь хортой програм хангамжийг тодорхойлоход ашигладаг . Уламжлалт вирусны эсрэг хөдөлгүүрүүд нь мэдэгдэж буй гарын үсгийг файлуудаас шалгадаг боловч үүсгэгч загвар нь файлын шинж чанарыг үнэлж, сурсан хэв маягт үндэслэн хортой эсэхийг урьдчилан таамаглаж чаддаг. Олон тэрбум файлын (хортой болон хоргүй) шинж чанаруудыг шинжилснээр хиймэл оюун ухаан нь тодорхой гарын үсэг байхгүй тохиолдолд хортой санааг илрүүлж болно. Жишээлбэл, үүсгэгч загвар нь гүйцэтгэгдэж буй файлыг сэжигтэй гэж тэмдэглэж болно, учир нь түүний зан төлөвийн профайл нь хоёртын "харагддаг" . Энэхүү зан төлөвт суурилсан илрүүлэлт нь шинэ эсвэл тэг өдрийн хортой програм хангамжийг эсэргүүцэхэд тусалдаг. Google-ийн Аюул заналхийллийн тагнуулын хиймэл оюун ухаан (Chronicle/Mandiant-ийн нэг хэсэг) нь үүсгэгч загвараа ашиглан болзошгүй хортой кодыг шинжлэх, "хортой програм хангамж болон бусад төрлийн аюул заналхийлэлтэй тэмцэхэд аюулгүй байдлын мэргэжилтнүүдэд илүү үр дүнтэй, үр дүнтэй туслах" зорилгоор ашигладаг гэж мэдээлэв. ( Үүсгэх хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглах вэ? 10 бодит жишээ ).
Нөгөөтэйгүүр, халдагчид энд ч гэсэн өөрөө дасан зохицдог хортой програм хангамжийг автоматаар үүсгэхийн тулд үүсгэгч хиймэл оюун ухааныг ашиглаж болохыг хүлээн зөвшөөрөх ёстой. Үнэндээ аюулгүй байдлын мэргэжилтнүүд илрүүлэхэд хэцүү хортой програм хангамж боловсруулахад тусалдаг Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ). Хиймэл оюун ухааны загварт хортой програм хангамжийн хэсгийг бүх мэдэгдэж буй вирусны эсрэг шалгалтаас зайлсхийх хүртэл нь дахин дахин өөрчлөх (файлын бүтцийг нь өөрчлөх, шифрлэх аргууд гэх мэт) зааварчилгаа өгч болно. Энэхүү сөрөг хэрэглээ нь улам бүр нэмэгдэж буй асуудал болж байна (заримдаа "хиймэл оюун ухаанаар ажилладаг хортой програм хангамж" эсвэл полиморфик хортой програм хангамж гэж нэрлэдэг). Бид ийм эрсдэлийг дараа нь хэлэлцэх боловч үүсгэгч хиймэл оюун ухаан нь хамгаалагчид болон халдагчдын аль алиных нь ашигладаг энэхүү муур, хулганы тоглоомд хэрэгсэл гэдгийг онцолж байна.
халдагч шиг сэтгэх боломжийг олгосноор хортой програм хангамжийн хамгаалалтыг сайжруулж , шинэ аюул заналхийлэл, шийдлүүдийг дотооддоо бий болгодог. Илрүүлэлтийн түвшинг сайжруулахын тулд синтетик хортой програм хангамж үйлдвэрлэх эсвэл сүлжээнд байдаг бодит хортой програм хангамжийг тайлбарлах, агуулахын тулд хиймэл оюун ухаан ашиглах эсэхээс үл хамааран эдгээр аргууд нь салбар бүрт хэрэглэгддэг. Банк нь хүснэгтэд байгаа сэжигтэй макрог хурдан шинжлэхийн тулд хиймэл оюун ухаанаар удирдуулсан хортой програм хангамжийн шинжилгээг ашиглаж болох бол үйлдвэрлэлийн компани нь үйлдвэрлэлийн хяналтын системийг чиглэсэн хортой програм хангамжийг илрүүлэхийн тулд хиймэл оюун ухаанд найдаж болно. Уламжлалт хортой програм хангамжийн шинжилгээг үүсгэгч хиймэл оюун ухаанаар баяжуулснаар байгууллагууд хортой програм хангамжийн кампанит ажилд өмнөхөөсөө илүү хурдан, илүү урьдчилан сэргийлэх байдлаар хариу үйлдэл үзүүлэх боломжтой.
Аюул заналхийллийн тагнуул ба автоматжуулалтын шинжилгээ
Өдөр бүр байгууллагууд аюул заналхийллийн тагнуулын мэдээллээр бөмбөгдүүлж байдаг - шинээр нээгдсэн халдлагын үзүүлэлтүүдийн (IOC) тэжээлээс эхлээд хакеруудын шинээр гарч ирж буй тактикийн талаарх шинжээчдийн тайлан хүртэл. Аюулгүй байдлын багуудын хувьд тулгарч буй бэрхшээл бол энэхүү мэдээллийн үерийг шүүж, хэрэгжүүлэх боломжтой ойлголтуудыг гаргаж авах явдал юм. Үүсгэн байгуулагч хиймэл оюун ухаан нь аюул заналхийллийн тагнуулын шинжилгээ, хэрэглээг автоматжуулахад . Шинжээчид хэдэн арван тайлан эсвэл мэдээллийн сангийн оруулгыг гараар уншихын оронд аюул заналхийллийн тагнуулын мэдээллийг машины хурдаар нэгтгэн дүгнэж, нөхцөл байдалд оруулахын тулд хиймэл оюун ухааныг ашиглаж болно.
Нэг тодорхой жишээ бол Google-ийн Threat Intelligence багц бөгөөд энэ нь үүсгэгч хиймэл оюун ухааныг (Gemini загвар) Google-ийн Mandiant болон VirusTotal-аас авсан аюул заналын мэдээллийн сантай нэгтгэдэг. Энэхүү хиймэл оюун ухаан нь "Google-ийн асар том аюул заналын мэдээллийн сангаар харилцан ярианы хайлт хийх" бөгөөд энэ нь хэрэглэгчдэд аюул заналын талаар байгалийн асуулт асууж, тодорхой хариулт авах боломжийг олгодог ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Жишээлбэл, шинжээч "Бид Threat Group X-тэй холбоотой ямар нэгэн хортой програм хангамж манай салбарт чиглэсэн байхыг харсан уу?" гэж бөгөөд хиймэл оюун ухаан нь холбогдох мэдээллийг татаж, "Тийм ээ, Threat Group X өнгөрсөн сард Y хортой програм хангамж ашиглан фишинг кампанит ажилтай холбоотой байсан" , уг хортой програмын зан үйлийн хураангуйг тэмдэглэнэ. Энэ нь олон хэрэгслийг лавлах эсвэл урт тайлан унших шаардлагатай мэдээллийг цуглуулах хугацааг эрс багасгадаг.
аюул заналын чиг хандлагыг уялдуулж, нэгтгэн дүгнэж чаддаг . Энэ нь мянга мянган аюулгүй байдлын блог бичлэг, халдлагын мэдээ, харанхуй вэб яриаг нэгтгэн дүгнэж, дараа нь CISO-ийн товч танилцуулгад зориулж "энэ долоо хоногийн шилдэг кибер аюул занал"-ын товч хураангуйг гаргаж болно. Уламжлал ёсоор энэ түвшний дүн шинжилгээ, тайлан нь хүний хүчин чармайлт шаарддаг байсан; одоо сайн тохируулсан загвар нь үүнийг хэдхэн секундын дотор боловсруулж чаддаг бөгөөд хүмүүс зөвхөн гаралтыг нь сайжруулдаг. ZeroFox зэрэг компаниуд "том өгөгдлийн багц дахь мэдээллийн шинжилгээ, нэгтгэн дүгнэхийг хурдасгах" зорилгоор тусгайлан бүтээсэн үүсгэн байгуулагч хиймэл оюун ухааны хэрэгсэл болох FoxGPT-ийг ( Үүсгэн байгуулагч хиймэл оюун ухааныг кибер аюулгүй байдалд хэрхэн ашиглах вэ? 10 бодит жишээ ). Өгөгдлийг унших, хөндлөн лавлагаа хийх ажлыг автоматжуулснаар хиймэл оюун ухаан нь аюул заналхийллийн тагнуулын багуудад шийдвэр гаргах, хариу арга хэмжээ авахад анхаарлаа төвлөрүүлэх боломжийг олгодог.
Өөр нэг хэрэглээний тохиолдол бол харилцан ярианы аюул заналхийллийн ангуучлал . Аюулгүй байдлын шинжээч хиймэл оюун ухааны туслахтай харилцаж байна гэж төсөөлөөд үз дээ: "Сүүлийн 48 цагийн дотор өгөгдөл гадагшлуулсан шинж тэмдгүүдийг надад харуул" эсвэл "Энэ долоо хоногт халдагчид ямар шинэ эмзэг байдлыг ашиглаж байна вэ?" Хиймэл оюун ухаан нь асуулгад тайлбар хийж, дотоод бүртгэл эсвэл гадаад мэдээллийн эх сурвалжаас хайж, тодорхой хариулт эсвэл холбогдох ослын жагсаалтаар хариулж чадна. Энэ нь тийм ч хол зөрүүтэй зүйл биш - орчин үеийн аюулгүй байдлын мэдээлэл, үйл явдлын менежментийн (SIEM) системүүд нь байгалийн хэлний асуулгад хамрагдаж эхэлж байна. Жишээлбэл, IBM-ийн QRadar аюулгүй байдлын багц нь 2024 онд шинжээчдэд ослын "хуваалцсан халдлагын замын талаар тодорхой асуулт асууж" "маш хамааралтай аюул заналхийллийн мэдээллийг автоматаар тайлбарлаж, нэгтгэн дүгнэж" ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Үндсэндээ үүсгэгч хиймэл оюун ухаан нь техникийн уулсын өгөгдлийг эрэлт хэрэгцээний дагуу чат хэмжээтэй ойлголт болгон хувиргадаг.
Салбар бүрт энэ нь томоохон үр дагавартай. Эрүүл мэндийн үйлчилгээ үзүүлэгч нь шинжээчийг бүтэн цагийн судалгаанд зориулахгүйгээр эмнэлгүүдийг чиглэсэн хамгийн сүүлийн үеийн ransomware бүлгүүдийн талаар мэдээлэл авахын тулд хиймэл оюун ухааныг ашиглаж болно. Жижиглэн худалдааны компанийн SOC нь дэлгүүрийн мэдээллийн технологийн ажилтнуудад мэдээлэл өгөхдөө шинэ POS хортой програм хангамжийн тактикуудыг хурдан нэгтгэн дүгнэж чаддаг. Төрөл бүрийн агентлагуудаас ирсэн аюулын мэдээллийг нэгтгэх шаардлагатай засгийн газарт хиймэл оюун ухаан гол анхааруулгыг онцолсон нэгдсэн тайланг гаргаж чаддаг. Аюулын талаарх мэдээлэл цуглуулах, тайлбарлах ажлыг автоматжуулснаар үүсгэгч хиймэл оюун ухаан нь байгууллагуудад шинээр гарч ирж буй аюул заналхийлэлд илүү хурдан хариу үйлдэл үзүүлэхэд тусалдаг бөгөөд чимээ шуугианд нуугдсан чухал анхааруулгыг алдах эрсдлийг бууруулдаг.
Аюулгүй байдлын үйл ажиллагааны төв (SOC)-ийн оновчлол
Аюулгүй байдлын үйл ажиллагааны төвүүд нь сэрэмжлүүлгийн ядаргаа болон их хэмжээний өгөгдлөөрөө алдартай. Ердийн SOC шинжээч өдөр бүр мянга мянган сэрэмжлүүлэг, үйл явдлыг судалж, болзошгүй ослыг судалж болно. Үүсгэх хиймэл оюун ухаан нь SOC-д хүч үржүүлэгчийн үүрэг гүйцэтгэдэг бөгөөд ердийн ажлыг автоматжуулж, ухаалаг хураангуй гаргаж, тэр ч байтугай зарим хариу үйлдлийг удирддаг. Зорилго нь SOC ажлын урсгалыг оновчтой болгох явдал бөгөөд ингэснээр хүний шинжээчид хамгийн чухал асуудлуудад анхаарлаа төвлөрүүлж, хиймэл оюун ухааны хамтран ажилладаг хүн үлдсэнийг нь зохицуулж чадна.
"Шинжээчийн хамтрагч" болгон ашиглаж байна . Өмнө дурдсанчлан Microsoft-ын Security Copilot нь үүнийг жишээ болгон харуулж байна: энэ нь "аюулгүй байдлын шинжээчийн ажлыг орлуулахын оронд туслах зорилгоор бүтээгдсэн" бөгөөд ослын мөрдөн байцаалт, тайлан гаргахад тусалдаг ( Microsoft Security Copilot нь кибер аюулгүй байдлын шинэ GPT-4 хиймэл оюун ухааны туслах юм | The Verge ). Практикт энэ нь шинжээч түүхий өгөгдөл - галт ханын бүртгэл, үйл явдлын цагийн хуваарь эсвэл ослын тайлбар - оруулж, хиймэл оюун ухаанаас үүнийг шинжлэх эсвэл нэгтгэн дүгнэхийг хүсэх боломжтой гэсэн үг юм. Хамрагч нь "Өглөөний 2:35 цагт IP X-ээс сэжигтэй нэвтрэлт Y сервер дээр амжилттай болж, дараа нь ер бусын өгөгдөл дамжуулагдсан нь тухайн серверт халдлага гарч болзошгүйг харуулж байна" гэх мэт өгүүлэмжийг гаргаж магадгүй юм. Цаг хугацаа чухал үед ийм шууд нөхцөл байдал үнэлж баршгүй юм.
Хиймэл оюун ухааны хамтран нисгэгчид нь 1-р түвшний ангиллын ачааллыг бууруулахад тусалдаг. Салбарын мэдээллээс харахад аюулгүй байдлын баг долоо хоногт 15 цагийг 22,000 орчим сэрэмжлүүлэг болон хуурамч эерэг мэдээллийг ялгаж ангилахад зарцуулж чаддаг ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Үүсгэгч хиймэл оюун ухааны тусламжтайгаар эдгээр сэрэмжлүүлгийн олонхийг автоматаар ангилж болно - хиймэл оюун ухаан нь илт хоргүй (үндэслэлийг нь өгсөн) сэрэмжлүүлгийг хэрэгсэхгүй болгож, үнэхээр анхаарал хандуулах шаардлагатайг тодруулж, заримдаа бүр тэргүүлэх чиглэлийг санал болгож чадна. Чухамдаа үүсгэгч хиймэл оюун ухааны нөхцөл байдлыг ойлгох давуу тал нь тусгаарлагдсан тохиолдолд хор хөнөөлгүй мэт санагдаж болох ч хамтдаа олон үе шаттай халдлагыг илтгэдэг сэрэмжлүүлгийг хооронд нь холбож чадна гэсэн үг юм. Энэ нь "сэрэмжлүүлгийн ядаргаа"-аас болж халдлагыг алдах магадлалыг бууруулдаг.
SOC шинжээчид мөн ан агнуур болон мөрдөн байцаалтыг хурдасгахын тулд хиймэл оюун ухаантай байгалийн хэлийг ашиглаж байна. Жишээлбэл, Purple AI "нарийн төвөгтэй аюул заналхийллийн ан агнуурын асуултуудыг энгийн англи хэл дээр асууж, хурдан бөгөөд үнэн зөв хариулт авах" ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Шинжээч "Сүүлийн сард badguy123[.]com домэйнтой ямар нэгэн төгсгөлийн цэгүүд холбогдсон уу?" бөгөөд Purple AI нь хариулахын тулд бүртгэлүүдийг хайж олох болно. Энэ нь шинжээчийг мэдээллийн сангийн асуулга эсвэл скрипт бичихээс авардаг - хиймэл оюун ухаан үүнийг далд хийдэг. Энэ нь мөн залуу шинжээчид өмнө нь асуулга хэлний мэргэшсэн туршлагатай инженер шаарддаг байсан ажлуудыг гүйцэтгэж, хиймэл оюун ухааны тусламжтайгаар багийн ур чадварыг үр дүнтэй дээшлүүлж чадна . Үнэндээ шинжээчид шинэлэг хиймэл оюун ухааны удирдамж нь "тэдний ур чадвар, мэргэжлийн ур чадварыг нэмэгдүүлдэг" бөгөөд залуу ажилтнууд одоо хиймэл оюун ухаанаас код бичих дэмжлэг эсвэл шинжилгээний зөвлөгөө авах боломжтой болж, ахлах багийн гишүүдээс үргэлж тусламж хүсэхээс хамааралтай байдлыг багасгадаг ( Кибер аюулгүй байдалд шинэлэг хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ).
Өөр нэг SOC оновчлол бол автоматжуулсан ослын хураангуй болон баримтжуулалт . Ослыг зохицуулсны дараа хэн нэгэн тайлан бичих ёстой бөгөөд энэ нь олон хүнд уйтгартай санагддаг ажил юм. Бүтээлч хиймэл оюун ухаан нь шүүхийн өгөгдлийг (системийн бүртгэл, хортой програмын шинжилгээ, үйл ажиллагааны хугацаа) авч, анхны ноорог ослын тайланг гаргаж чаддаг. IBM нь энэхүү чадварыг QRadar-д бий болгож байгаа бөгөөд ингэснээр "нэг товшилтоор" янз бүрийн оролцогч талуудад (гүйцэтгэх захирлууд, мэдээллийн технологийн багууд гэх мэт) зориулж ослын хураангуйг гаргаж болно. ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Энэ нь цаг хугацаа хэмнээд зогсохгүй тайланд юу ч орхигдуулахгүй байхыг баталгаажуулдаг, учир нь хиймэл оюун ухаан нь холбогдох бүх мэдээллийг тууштай оруулж чаддаг. Үүнтэй адилаар, нийцэл болон аудитын хувьд хиймэл оюун ухаан нь ослын өгөгдөл дээр үндэслэн маягт эсвэл нотлох баримтын хүснэгтийг бөглөж болно.
Бодит ертөнцийн үр дүн нь сэтгэл татам юм. Swimlane-ийн хиймэл оюун ухаанаар удирддаг SOAR (аюулгүй байдлын зохион байгуулалт, автоматжуулалт, хариу арга хэмжээ)-ийг эрт хэрэгжүүлэгчид бүтээмжийн асар их өсөлтийг мэдээлж байна - Жишээлбэл, Global Data Systems нь SecOps баг нь илүү их хэмжээний хэргийн ачааллыг зохицуулж байгааг харсан; нэг захирал хиймэл оюун ухаанаар ажилладаг автоматжуулалтгүйгээр 20 ажилтантай ажиллах болно" Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ ). Өөрөөр хэлбэл, SOC дахь хиймэл оюун ухаан хүчин чадлыг нэмэгдүүлэх боломжтой . Үүлэн аюулгүй байдлын сэрэмжлүүлэгтэй ажилладаг технологийн компани эсвэл OT системийг хянадаг үйлдвэрлэлийн үйлдвэр байсан ч SOC багууд үүсгэгч хиймэл оюун ухааны туслахуудыг ашигласнаар илүү хурдан илрүүлэлт, хариу арга хэмжээ авах, цөөн тооны алдаатай ослууд, илүү үр ашигтай үйл ажиллагаа явуулах боломжтой. Энэ нь илүү ухаалаг ажиллах тухай юм - машинуудад давтагддаг, өгөгдөл ихтэй ажлуудыг гүйцэтгэх боломжийг олгохын тулд хүмүүс зөн совин, мэргэжлийн ур чадвараа хамгийн чухал газарт нь ашиглах боломжтой.
Эмзэг байдлын менежмент ба аюул заналын симуляци
Халдагчид ашиглаж болох програм хангамж эсвэл системийн сул талууд болох эмзэг байдлыг тодорхойлох, удирдах нь кибер аюулгүй байдлын гол үүрэг юм. Бүтээлч хиймэл оюун ухаан нь илрүүлэлтийг хурдасгах, нөхөөсийг эрэмбэлэхэд туслах, тэр ч байтугай бэлэн байдлыг сайжруулахын тулд эдгээр эмзэг байдал руу халдлагыг дуурайлган хийх замаар эмзэг байдлын менежментийг сайжруулж байна. Үндсэндээ хиймэл оюун ухаан нь байгууллагуудад хуяг дуулга дахь нүхийг илүү хурдан олж, засахад нь тусалж, урьдчилан туршиж үзэхэд тусалдаг.
Нэг чухал хэрэглээ бол автомат кодын хяналт болон эмзэг байдлыг илрүүлэхэд . Том кодын баазууд (ялангуяа хуучин системүүд) нь ихэвчлэн анзаарагдахгүй аюулгүй байдлын алдаануудыг агуулдаг. Генератив хиймэл оюун ухааны загваруудыг аюулгүй код бичих дадал болон нийтлэг алдааны хэв маягийн талаар сургаж, дараа нь эх код эсвэл хөрвүүлсэн хоёртын файлууд дээр гаргаж, болзошгүй эмзэг байдлыг олох боломжтой. Жишээлбэл, NVIDIA-ийн судлаачид хуучин програм хангамжийн контейнеруудыг шинжилж, эмзэг байдлыг "өндөр нарийвчлалтайгаар - хүний мэргэжилтнүүдээс 4 дахин хурдан" Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ) . Хиймэл оюун ухаан нь үндсэндээ аюулгүй бус код ямар харагддагийг сурч, хэдэн арван жилийн настай програм хангамжийг сканнердаж, эрсдэлтэй функц болон сангуудыг тэмдэглэж, гараар кодын аудит хийх ердийн удаан үйл явцыг ихээхэн хурдасгаж чадсан. Энэ төрлийн хэрэгсэл нь том, хуучин кодын баазаас хамааралтай санхүү эсвэл засгийн газар зэрэг салбаруудын хувьд тоглоомын өөрчлөлт болж чадна - хиймэл оюун ухаан нь ажилтнууд олоход хэдэн сар эсвэл хэдэн жил шаардагдаж болох асуудлуудыг (хэрэв хэзээ нэгэн цагт) олж илрүүлснээр аюулгүй байдлыг шинэчлэхэд тусалдаг.
эмзэг байдлын сканнердах үр дүнг боловсруулж, тэдгээрийг эрэмбэлэх замаар эмзэг байдлын менежментийн ажлын урсгалд тусалдаг ExposureAI нь шинжээчдэд эмзэг байдлын өгөгдлийг энгийн хэлээр асууж, шуурхай хариулт авах боломжийг олгохын тулд үүсгэгч хиймэл оюун ухааныг ашигладаг ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). ExposureAI нь "бүтэн халдлагын замыг өгүүлэмжээр нэгтгэн дүгнэж" , халдагч үүнийг системийг эвдэхийн тулд бусад сул талуудтай хэрхэн холбож болохыг тайлбарлаж чадна. Энэ нь бүр засах арга хэмжээ авахыг зөвлөж, эрсдэлийн талаархи дараагийн асуултуудад хариулдаг. Энэ нь шинэ чухал CVE (Нийтлэг эмзэг байдал ба өртөлт) зарлагдахад шинжээч хиймэл оюун ухаанаас "Манай серверүүдийн аль нэг нь энэ CVE-д өртсөн үү, хэрэв бид нөхөөс хийхгүй бол хамгийн муу тохиолдолд юу болох вэ?" гэж , байгууллагын өөрийн сканнердах өгөгдлөөс тодорхой үнэлгээ авах боломжтой гэсэн үг юм. Эмзэг байдлыг контекстэд оруулснаар (жишээлбэл, энэ нь интернет болон өндөр үнэ цэнэтэй сервер дээр ил гарсан тул энэ нь нэн тэргүүний зорилт юм) үүсгэгч хиймэл оюун ухаан нь багуудад хязгаарлагдмал нөөцөөр ухаалаг нөхөөс хийхэд тусалдаг.
Мэдэгдэж буй эмзэг байдлыг олж, удирдахаас гадна үүсгэгч хиймэл оюун ухаан нь нэвтрэлтийн туршилт болон халдлагын симуляцид - үндсэндээ үл мэдэгдэх эмзэг байдлыг илрүүлэх эсвэл аюулгүй байдлын хяналтыг шалгах. Үүсгэгч хиймэл оюун ухааны нэг төрөл болох үүсгэгч өрсөлдөгч сүлжээ (GAN)-ийг бодит сүлжээний урсгал эсвэл хэрэглэгчийн зан төлөвийг дуурайдаг синтетик өгөгдөл үүсгэхэд ашигласан бөгөөд үүнд далд халдлагын хэв маяг багтаж болно. 2023 оны судалгаагаар халдлага илрүүлэх системийг сургахын тулд бодит тэг өдрийн халдлагын урсгалыг бий болгохын тулд GAN-ийг ашиглахыг санал болгосон ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). IDS-ийг хиймэл оюун ухаанаар бүтээсэн халдлагын хувилбаруудаар (үйлдвэрлэлийн сүлжээнд бодит хортой програм ашиглах эрсдэлгүй) тэжээснээр байгууллагууд бодит байдалд тэдэнд цохилт өгөхийг хүлээхгүйгээр шинэ аюулыг танихын тулд хамгаалалтаа сургаж чадна. Үүнтэй адилаар хиймэл оюун ухаан нь халдагч системийг шалгаж байгааг дуурайж чаддаг - жишээлбэл, ямар нэгэн амжилттай эсэхийг харахын тулд аюулгүй орчинд янз бүрийн ашиглалтын аргыг автоматаар туршиж үздэг. АНУ-ын Батлан хамгаалахын Дэвшилтэт Судалгааны Төслийн Агентлаг (DARPA) энд ирээдүйтэй байгааг харж байна: түүний 2023 оны хиймэл оюун ухааны кибер сорилт нь өрсөлдөөний нэг хэсэг болгон "нээлттэй эхийн програм хангамжийн эмзэг байдлыг автоматаар олж, засах" DARPA нь дайчдын итгэж болох хиймэл оюун ухаан, бие даасан хэрэглээг хөгжүүлэхийг зорьж байна > АНУ-ын Батлан хамгаалах яам > Батлан хамгаалах яамны мэдээ ). Энэхүү санаачилга нь хиймэл оюун ухаан зөвхөн мэдэгдэж буй цоорхойг нөхөхөд туслахаас гадна шинээр илрүүлж, засварлахыг санал болгож байгаа бөгөөд энэ нь уламжлал ёсоор чадварлаг (мөн үнэтэй) аюулгүй байдлын судлаачдаар хязгаарлагддаг ажил юм.
хамгаалалтын зорилгоор ухаалаг зөгийн балны сав, дижитал ихрүүдийг ч бий болгож чадна "бодит сервер эсвэл төхөөрөмжийг дуурайлган дижитал системийг хувилж, хакеруудыг урхидаж" ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Эдгээр хиймэл оюун ухаанаар үүсгэгдсэн зөгийн балны савнууд нь бодит орчин шиг ажилладаг (жишээлбэл, ердийн телеметрийг илгээдэг хуурамч IoT төхөөрөмж гэх мэт) боловч зөвхөн халдагчдыг татахын тулд оршин байдаг. Халдагч заль мэхийг онилоход хиймэл оюун ухаан нь тэднийг арга барилаа илчлүүлэхээр хуурч, хамгаалагчид үүнийг судалж, бодит системийг бэхжүүлэхэд ашиглаж болно. Бүтээлч загварчлалаар ажилладаг энэхүү ойлголт нь халдагчдыг буруутгах .
Салбар бүрт илүү хурдан бөгөөд ухаалаг эмзэг байдлын менежмент нь цөөн тооны зөрчилтэй гэсэн үг юм. Жишээлбэл, эрүүл мэндийн мэдээллийн технологийн салбарт хиймэл оюун ухаан нь эмнэлгийн төхөөрөмжөөс эмзэг хуучирсан номын санг хурдан илрүүлж, халдагч ашиглахаас өмнө програм хангамжийг засахыг шаардаж болно. Банкны салбарт хиймэл оюун ухаан нь бүх тохиолдолд хэрэглэгчийн мэдээлэл аюулгүй хэвээр байхын тулд шинэ програм хангамж руу хийсэн дотоод халдлагыг дуурайж болно. Тиймээс үүсгэгч хиймэл оюун ухаан нь байгууллагын аюулгүй байдлын байр суурийг микроскоп болон стресс шалгагч болгон ашигладаг: энэ нь уян хатан байдлыг хангахын тулд далд алдаа, дарамтыг төсөөллийн аргаар гэрэлтүүлдэг.
Аюулгүй код үүсгэх болон програм хангамж хөгжүүлэх
Бүтээлч хиймэл оюун ухааны авьяас чадвар нь зөвхөн халдлагыг илрүүлэхээр хязгаарлагдахгүй - мөн эхнээс нь илүү аюулгүй систем бий болгоход . Програм хангамж хөгжүүлэхэд хиймэл оюун ухааны код үүсгэгчид (GitHub Copilot, OpenAI Codex гэх мэт) нь хөгжүүлэгчдэд кодын хэсгүүд эсвэл бүхэл функцуудыг санал болгосноор кодыг хурдан бичихэд тусалдаг. Кибер аюулгүй байдлын өнцөг нь эдгээр хиймэл оюун ухааны санал болгож буй кодын хэсгүүд аюулгүй байдлыг хангах, код бичих дадлыг сайжруулахын тулд хиймэл оюун ухааныг ашиглах явдал юм.
Нэг талаас, үүсгэгч хиймэл оюун ухаан нь аюулгүй байдлын шилдэг туршлагыг шингээсэн код бичих туслах . Хөгжүүлэгчид хиймэл оюун ухааны хэрэгсэлд "Python дээр нууц үг шинэчлэх функц үүсгэх" , зөвхөн ажиллагаатай төдийгүй аюулгүй удирдамжийг (жишээ нь зөв оролтын баталгаажуулалт, бүртгэл хөтлөх, мэдээлэл алдалгүйгээр алдааг зохицуулах гэх мэт) дагаж мөрддөг кодыг буцааж авах боломжтой. Ийм туслах нь аюулгүй кодын өргөн хүрээтэй жишээн дээр сургагдсан тул эмзэг байдалд хүргэдэг хүний алдааг бууруулахад тусалдаг. Жишээлбэл, хэрэв хөгжүүлэгч хэрэглэгчийн оролтыг ариутгахаа мартсан бол (SQL тарилга эсвэл үүнтэй төстэй асуудлуудад хаалга нээх) хиймэл оюун ухаан үүнийг анхдагчаар оруулах эсвэл анхааруулж болно. Зарим хиймэл оюун ухааны код бичих хэрэгслүүдийг одоо яг энэ зорилгод үйлчлэхийн тулд аюулгүй байдалд чиглэсэн өгөгдөлөөр сайжруулж байна - үндсэндээ хиймэл оюун ухаан нь аюулгүй байдлын ухамсартай програмчлалыг хослуулдаг .
Гэсэн хэдий ч нөгөө тал нь бий: үүсгэгч хиймэл оюун ухаан нь зөв зохицуулаагүй тохиолдолд эмзэг байдлыг амархан бий болгож болзошгүй. Sophos-ийн аюулгүй байдлын мэргэжилтэн Бен Вершаерен тэмдэглэснээр, үүсгэгч хиймэл оюун ухааныг код бичихэд ашиглах нь "богино, баталгаажсан кодын хувьд зүгээр боловч шалгагдаагүй код нь үйлдвэрлэлийн системд нэгтгэгдэх үед эрсдэлтэй" . Эрсдэл нь хиймэл оюун ухаан нь мэргэжлийн бус хүний анзаарахгүй байж болох аргаар аюултай логикийн хувьд зөв код үүсгэж болзошгүй юм. Түүнээс гадна, хорлонтой этгээдүүд олон нийтийн хиймэл оюун ухааны загваруудад эмзэг кодын хэв маягийг (өгөгдлийн хордлогын нэг хэлбэр) суулгаснаар хиймэл оюун ухаан нь аюултай код санал болгох замаар санаатайгаар нөлөөлж болзошгүй юм. Ихэнх хөгжүүлэгчид аюулгүй байдлын мэргэжилтэн биш тул хэрэв хиймэл оюун ухаан тохиромжтой шийдлийг санал болговол тэд үүнийг сохроор ашиглаж, алдаатай гэдгийг нь анзааралгүй ашиглаж магадгүй юм ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Энэ санаа зовоосон асуудал бодитой - үнэндээ код бичихэд хиймэл оюун ухааныг ашиглахтай адил нийтлэг эрсдэлийг тодорхойлсон LLM (том хэлний загварууд)-ын OWASP-ийн шилдэг 10 жагсаалт одоо байна.
Эдгээр асуудлыг шийдвэрлэхийн тулд мэргэжилтнүүд код бичих салбарт "генератив хиймэл оюун ухааныг генератив хиймэл оюун ухаанаар тэмцэх"-ийг кодыг хянаж, туршихад . Хиймэл оюун ухаан нь хүний код хянагчаас хамаагүй хурдан шинэ кодыг сканнердаж, болзошгүй эмзэг байдал эсвэл логикийн асуудлуудыг тэмдэглэж чадна. Бид програм хангамжийн хөгжлийн амьдралын мөчлөгт нэгтгэгддэг хэрэгслүүд гарч ирж байгааг харж байна: код бичигддэг (магадгүй хиймэл оюун ухааны тусламжтайгаар), дараа нь аюулгүй кодын зарчмаар сургагдсан генератив загвар үүнийг хянаж, аливаа асуудлын тайланг гаргадаг (жишээлбэл, хуучирсан функцуудыг ашиглах, баталгаажуулалтын шалгалт дутуу байх гэх мэт). Өмнө дурдсан NVIDIA-ийн судалгаагаар кодын эмзэг байдлыг 4 дахин хурдан илрүүлсэн нь аюулгүй кодын шинжилгээнд хиймэл оюун ухааныг ашиглах жишээ юм ( Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ жишээ] ).
аюулгүй тохиргоо болон скриптүүдийг бий болгоход тусалж чадна . Жишээлбэл, хэрэв компани аюулгүй үүлэн дэд бүтцийг байршуулах шаардлагатай бол инженер нь хиймэл оюун ухаанаас аюулгүй байдлын хяналт (зохих сүлжээний сегментчилэл, хамгийн бага эрх бүхий IAM үүрэг гэх мэт)-тай тохиргооны скриптүүдийг (Дэд бүтэц нь код хэлбэрээр) үүсгэхийг хүсч болно. Хиймэл оюун ухаан нь ийм мянга мянган тохиргоонд сургагдсан тул инженер дараа нь нарийн тохируулдаг суурь шугамыг гаргаж чаддаг. Энэ нь системийн аюулгүй тохиргоог хурдасгаж, буруу тохиргооны алдааг бууруулдаг - үүлэн аюулгүй байдлын ослын нийтлэг эх үүсвэр юм.
Зарим байгууллагууд аюулгүй код бичих хэв маягийн талаарх мэдлэгийн санг хадгалахын тулд үүсгэгч хиймэл оюун ухааныг ашиглаж байна. Хэрэв хөгжүүлэгч тодорхой функцийг хэрхэн аюулгүй хэрэгжүүлэхээ мэдэхгүй байгаа бол компанийн өмнөх төслүүд болон аюулгүй байдлын удирдамжаас суралцсан дотоод хиймэл оюун ухаанаас лавлагаа авах боломжтой. Хиймэл оюун ухаан нь функциональ шаардлага болон компанийн аюулгүй байдлын стандартуудтай нийцсэн санал болгосон арга барил эсвэл кодын хэсгийг буцааж өгч магадгүй юм. Энэ аргыг Secureframe-ийн Асуулгын Автоматжуулалт бөгөөд энэ нь компанийн бодлого, өмнөх шийдлүүдээс хариултыг авч, тууштай, үнэн зөв хариултыг баталгаажуулдаг (үндсэндээ аюулгүй баримтжуулалт үүсгэдэг) ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? 10 бодит жишээ ). Энэ ойлголт нь код бичих гэсэн утгатай: та өмнө нь ямар нэгэн зүйлийг хэрхэн аюулгүй хэрэгжүүлснийг "санаж", дахин тэр замаар хийхэд чиглүүлдэг хиймэл оюун ухаан юм.
Товчхондоо, генератив хиймэл оюун ухаан нь аюулгүй код бичих тусламжийг илүү хүртээмжтэй болгосноор . Технологи, санхүү, батлан хамгаалах гэх мэт олон тооны захиалгат програм хангамж хөгжүүлдэг салбарууд нь код бичих ажлыг хурдасгаад зогсохгүй, үргэлж сонор сэрэмжтэй аюулгүй байдлын хянагчийн үүрэг гүйцэтгэдэг хиймэл оюун ухааны хамтран туршилтын системтэй байх нь ашиг тустай. Зөв зохистой удирдсан тохиолдолд эдгээр хиймэл оюун ухааны хэрэгслүүд нь шинэ эмзэг байдлын илрэлийг бууруулж, хөгжүүлэлтийн багуудад алхам тутамд аюулгүй байдлын мэргэжилтэн оролцоогүй байсан ч шилдэг туршлагыг дагаж мөрдөхөд тусалдаг. Үүний үр дүнд эхний өдрөөсөө л халдлагын эсрэг илүү бат бөх програм хангамж бий болдог.
Ослын хариу арга хэмжээний дэмжлэг
Кибер аюулгүй байдлын осол гарсан үед - хортой програм хангамжийн дэгдэлт, өгөгдөл алдагдсан эсвэл халдлагаас үүдэлтэй системийн тасалдал гэх мэт - цаг хугацаа маш чухал юм. Ослын хариу арга хэмжээ авах багуудыг ослыг илүү хурдан, илүү их мэдээлэлтэйгээр хязгаарлаж, арилгахад нь дэмжих зорилгоор үүсгэгч хиймэл оюун ухааныг улам бүр ашиглаж байна. Гол санаа нь хиймэл оюун ухаан нь ослын үед мөрдөн байцаалт, баримтжуулалтын ачааллын зарим хэсгийг үүрч, тэр ч байтугай зарим хариу арга хэмжээг санал болгох эсвэл автоматжуулах боломжтой гэсэн санаа юм.
Хэт улаан туяаны технологид хиймэл оюун ухааны нэг гол үүрэг бол бодит цагийн ослын шинжилгээ, дүгнэлт . Ослын үеэр хариу арга хэмжээ авагчид "Халдагч хэрхэн нэвтэрсэн бэ?" , "Аль системд өртсөн бэ? , Ямар өгөгдөл эвдэгдсэн байж болзошгүй вэ?" . Бүтээлч хиймэл оюун ухаан нь нөлөөлөлд өртсөн системүүдийн бүртгэл, мэдэгдэл, шүүхийн шинжилгээний өгөгдлийг шинжилж, хурдан мэдээлэл өгөх боломжтой. Жишээлбэл, Microsoft Security Copilot нь ослын хариу арга хэмжээ авагчид янз бүрийн нотлох баримт (файл, URL, үйл явдлын бүртгэл)-ийг оруулж, цагийн хуваарь эсвэл дүгнэлт асуух боломжийг олгодог ( Microsoft Security Copilot нь кибер аюулгүй байдлын шинэ GPT-4 хиймэл оюун ухааны туслах юм | The Verge ). Хиймэл оюун ухаан нь дараах байдлаар хариу үйлдэл үзүүлж магадгүй: "Алдаа нь GMT-ийн 10:53 цагт хэрэглэгч JohnDoe руу X хортой програм агуулсан фишинг имэйл илгээснээс эхэлсэн байх. Хортой програмыг ажиллуулсны дараа хоёр өдрийн дараа санхүүгийн сервер рүү хажуу тийш шилжихэд ашигласан арын хаалга үүсгэсэн бөгөөд тэнд өгөгдөл цуглуулсан." Энэхүү уялдаа холбоотой зургийг хэдэн цагийн дотор биш хэдэн минутын дотор авах нь баг мэдээлэлтэй шийдвэр гаргах (ямар системийг тусгаарлах гэх мэт) илүү хурдан боломжийг олгодог.
хязгаарлах болон нөхөн сэргээх үйлдлүүдийг санал болгож чадна . Жишээлбэл, хэрэв төгсгөлийн цэг нь ransomware-ээр халдварлагдсан бол хиймэл оюун ухааны хэрэгсэл нь тухайн машиныг тусгаарлах, тодорхой бүртгэлийг идэвхгүй болгох, галт хана дээрх мэдэгдэж буй хортой IP хаягуудыг хаах скрипт эсвэл зааврын багц үүсгэж болох бөгөөд энэ нь үндсэндээ тоглоомын гүйцэтгэл юм. Palo Alto Networks нь үүсгэгч хиймэл оюун ухаан нь "ослын шинж чанарт үндэслэн зохих үйлдэл эсвэл скрипт үүсгэх" чадвартай бөгөөд хариу арга хэмжээний эхний алхмуудыг автоматжуулдаг гэж тэмдэглэжээ ( Кибер аюулгүй байдалд Үүсгэх хиймэл оюун ухаан гэж юу вэ? - Palo Alto Networks ). Аюулгүй байдлын баг хэт ачаалалтай байгаа тохиолдолд (хэдэн зуун төхөөрөмж дээр өргөн тархсан халдлага гэж бодъё) хиймэл оюун ухаан нь эдгээр үйлдлүүдийн заримыг урьдчилан батлагдсан нөхцөлд шууд гүйцэтгэж, цуцалтгүй ажилладаг залуу хариулагч шиг ажиллаж болно. Жишээлбэл, хиймэл оюун ухааны агент нь эвдэрсэн гэж үзсэн итгэмжлэлүүдийг автоматаар дахин тохируулах эсвэл ослын профайлтай тохирох хортой үйл ажиллагаа харуулсан хостуудыг тусгаарлаж болно.
Ослын хариу арга хэмжээний үеэр баг дотор болон оролцогч талуудтай харилцах нь чухал юм. Бүтээлч хиймэл оюун ухаан нь ослын шинэчлэлтийн тайлан эсвэл товч мэдээллийг шууд бэлтгэснээр . Инженер алдааг олж засварлахаа зогсоож имэйл шинэчлэлт бичихийн оронд тэд хиймэл оюун ухаанаас "Энэ ослын талаар юу болсныг удирдлагуудад мэдэгдэхийн тулд нэгтгэн дүгнэж хэлнэ үү" гэж асууж болно. Хиймэл оюун ухаан нь ослын өгөгдлийг хүлээн авсны дараа товч дүгнэлт гаргаж чадна: "15:00 цагийн байдлаар халдагчид 2 хэрэглэгчийн бүртгэл, 5 серверт нэвтэрсэн байна. Нөлөөлөлд өртсөн өгөгдөлд X мэдээллийн сан дахь үйлчлүүлэгчийн бүртгэл багтана. Хамгаалалтын арга хэмжээ: Нөлөөлөлд өртсөн бүртгэлүүдийн VPN хандалтыг цуцалж, серверүүдийг тусгаарласан. Дараагийн алхамууд: тогтвортой байдлын механизмыг сканнердах." Дараа нь хариулагч үүнийг хурдан шалгаж эсвэл тохируулж, илгээж, оролцогч талуудыг үнэн зөв, хамгийн сүүлийн үеийн мэдээллээр хангах боломжтой.
Тоос намжсаны дараа ихэвчлэн ослын талаарх дэлгэрэнгүй тайланг бэлтгэж, сургамжийг эмхэтгэх шаардлагатай байдаг. Энэ бол хиймэл оюун ухааны дэмжлэг гялалздаг өөр нэг чиглэл юм. Энэ нь ослын бүх өгөгдлийг хянаж, ослын дараах тайланг гаргаж . Жишээлбэл, IBM нь товчлуур дарахад л "оролцогч талуудтай хуваалцаж болох аюулгүй байдлын тохиолдол, ослын энгийн хураангуй"-ыг Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Үйл ажиллагааны дараах тайланг оновчтой болгосноор байгууллагууд сайжруулалтыг илүү хурдан хэрэгжүүлж, мөн дагаж мөрдөх зорилгоор илүү сайн баримт бичигтэй болох боломжтой.
Ирээдүйд чиглэсэн нэг шинэлэг хэрэглээ бол хиймэл оюун ухаанд суурилсан ослын симуляци . Гал түймрийн сургуулилт хэрхэн явуулдагтай адил зарим компаниуд "хэрэв" гэсэн ослын хувилбаруудыг боловсруулахын тулд үүсгэгч хиймэл оюун ухааныг ашиглаж байна. Хиймэл оюун ухаан нь сүлжээний зохион байгуулалтаас хамааран ransomware хэрхэн тархаж болохыг, эсвэл дотоод хүн өгөгдлийг хэрхэн шүүрч авч, дараа нь одоогийн хариу арга хэмжээний төлөвлөгөөний үр нөлөөг үнэлэхийг дуурайж болно. Энэ нь багуудад бодит ослын өмнө тоглоомын номыг бэлтгэх, сайжруулахад тусалдаг. Энэ нь таны бэлэн байдлыг байнга шалгадаг байнга сайжирч буй ослын хариу арга хэмжээний зөвлөхтэй байхтай адил юм.
Санхүү, эрүүл мэндийн үйлчилгээ зэрэг өндөр эрсдэлтэй салбаруудад ослын улмаас зогсолт эсвэл өгөгдөл алдагдах нь онцгой үнэтэй байдаг тул хиймэл оюун ухаанаар удирддаг эдгээр хэт улаан туяаны чадавхи нь маш сонирхол татахуйц байдаг. Кибер ослын улмаас эмнэлэг удаан хугацааны системийн тасалдал хүлээж чадахгүй - хязгаарлалтыг хурдан хугацаанд дэмждэг хиймэл оюун ухаан нь амь насыг аврах боломжтой. Үүнтэй адил санхүүгийн байгууллага нь өглөөний 3 цагт сэжигтэй залилангийн халдлагын анхны ангиллыг боловсруулахын тулд хиймэл оюун ухааныг ашиглаж болох бөгөөд ингэснээр дэслэгч хүмүүс онлайн болох үед олон суурь ажил (нөлөөлөлд өртсөн данснаас гарах, гүйлгээг хаах гэх мэт) аль хэдийн хийгдсэн байдаг. Ослын хариу арга хэмжээний багийг үүсгэгч хиймэл оюун ухаанаар нэмэгдүүлснээр байгууллагууд хариу арга хэмжээ авах хугацааг мэдэгдэхүйц багасгаж, тэдний боловсруулалтын нарийвчлалыг сайжруулж, эцэст нь кибер ослын хохирлыг бууруулж чадна.
Зан үйлийн аналитик ба аномали илрүүлэлт
Хэрэглэгчийн бүртгэл ер бусын хэмжээний өгөгдөл татаж авах эсвэл сүлжээний төхөөрөмж гэнэт танил бус хосттой холбогдох гэх мэт "хэвийн" зан төлөвөөс хазайсан үед олон кибер халдлагыг илрүүлж болно. Бүтээлч хиймэл оюун ухаан нь зан төлөвийн шинжилгээ, аномалийг илрүүлэх , хэрэглэгчид болон системийн хэвийн хэв маягийг сурч, дараа нь ямар нэгэн зүйл буруу харагдаж байвал тэмдэглэх дэвшилтэт техникүүдийг санал болгодог.
Уламжлалт аномали илрүүлэх нь ихэвчлэн тодорхой хэмжүүрүүд дээр (CPU хэрэглээний огцом өсөлт, сондгой цагаар нэвтрэх гэх мэт) статистик босго эсвэл энгийн машин сургалтыг ашигладаг. Үүсгэн байгуулагч хиймэл оюун ухаан нь зан үйлийн илүү нарийн профайлуудыг бий болгосноор үүнийг цааш нь үргэлжлүүлж чадна. Жишээлбэл, хиймэл оюун ухааны загвар нь ажилтны нэвтрэх мэдээлэл, файлын хандалтын хэв маяг, имэйлийн зуршлыг цаг хугацааны явцад шингээж, тухайн хэрэглэгчийн "хэвийн" талаар олон хэмжээст ойлголтыг бий болгож чадна. Хэрэв тухайн бүртгэл дараа нь хэвийн хэмжээнээсээ эрс гажсан зүйл хийвэл (жишээлбэл, шинэ улсаас нэвтэрч, шөнө дунд Хүний нөөцийн файлуудын санд хандах) хиймэл оюун ухаан нь зөвхөн нэг хэмжүүр дээр төдийгүй хэрэглэгчийн профайлд тохирохгүй бүхэл бүтэн зан үйлийн хэв маягийн хазайлтыг илрүүлэх болно. Техникийн хувьд үүсгэн байгуулагч загварууд (автокодер эсвэл дарааллын загвар гэх мэт) нь "хэвийн" ямар харагдахыг загварчилж, дараа нь хүлээгдэж буй зан үйлийн хүрээг бий болгож чадна. Бодит байдал энэ хязгаараас гадуур гарахад үүнийг аномали гэж тэмдэглэдэг ( Кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ).
Нэг практик хэрэгжилт нь сүлжээний урсгалын хяналт . 2024 оны судалгаагаар АНУ-ын байгууллагуудын 54% нь сүлжээний урсгалыг хянах нь кибер аюулгүй байдлын хувьд хиймэл оюун ухааныг ашиглах гол хэрэглээ гэж дурдсан ( Хойд Америк: дэлхий даяарх кибер аюулгүй байдлын салбарт хиймэл оюун ухааныг ашиглах шилдэг тохиолдлууд 2024 ). Үүсгэн байгуулагч хиймэл оюун ухаан нь байгууллагын сүлжээний хэвийн харилцаа холбооны хэв маягийг сурч чаддаг - аль серверүүд хоорондоо ихэвчлэн ярьдаг, ажлын цагаар болон шөнийн цагаар ямар хэмжээний өгөгдөл хөдөлдөг гэх мэт. Хэрэв халдагч илрүүлэхээс зайлсхийхийн тулд серверээс өгөгдлийг удаанаар ч гэсэн шүүрч эхэлбэл хиймэл оюун ухаанд суурилсан систем нь "А сервер хэзээ ч шөнийн 2 цагт 500MB өгөгдлийг гадаад IP хаяг руу илгээдэггүй" , сэрэмжлүүлэг өгч магадгүй юм. Учир нь хиймэл оюун ухаан нь зөвхөн статик дүрмийг ашигладаггүй, харин сүлжээний зан үйлийн хөгжиж буй загварыг ашигладаг тул статик дүрмүүд (жишээлбэл, "өгөгдөл > X MB байвал анхааруулга") алдаж эсвэл буруу тэмдэглэж болох нарийн гажигийг илрүүлж чаддаг. Энэхүү дасан зохицох шинж чанар нь банкны гүйлгээний сүлжээ, үүлэн дэд бүтэц, эсвэл хэвийн ба хэвийн бус байдлын тогтмол дүрмийг тодорхойлох нь маш нарийн төвөгтэй байдаг IoT төхөөрөмжийн парк зэрэг орчинд хиймэл оюун ухаанаар удирддаг гажиг илрүүлэхийг хүчирхэг болгодог зүйл юм.
хэрэглэгчийн зан үйлийн аналитик (UBA) -д тусалж байгаа бөгөөд энэ нь дотоод аюул заналхийлэл эсвэл эвдэрсэн бүртгэлийг илрүүлэхэд чухал үүрэг гүйцэтгэдэг. Хэрэглэгч эсвэл аж ахуйн нэгж бүрийн суурь мэдээллийг бий болгосноор хиймэл оюун ухаан нь итгэмжлэлийг буруу ашиглах гэх мэт зүйлсийг илрүүлж чадна. Жишээлбэл, нягтлан бодох бүртгэлийн Боб гэнэт хэрэглэгчийн мэдээллийн сангаас асууж эхэлбэл (тэр өмнө нь хэзээ ч хийж байгаагүй зүйл), Бобын зан үйлийн хиймэл оюун ухааны загвар үүнийг ер бусын гэж тэмдэглэнэ. Энэ нь хортой програм хангамж биш байж магадгүй - энэ нь Бобын итгэмжлэлийг хулгайлж, халдагч ашиглаж байгаа, эсвэл Боб ашиглах ёсгүй газраа шалгаж байгаа тохиолдол байж болно. Аль ч тохиолдолд аюулгүй байдлын баг мөрдөн шалгахын тулд анхааруулга авдаг. Ийм хиймэл оюун ухаанаар удирддаг UBA системүүд нь янз бүрийн аюулгүй байдлын бүтээгдэхүүнүүдэд байдаг бөгөөд үүсгэн байгуулагч загварчлалын техникүүд нь тэдгээрийн нарийвчлалыг нэмэгдүүлж, нөхцөл байдлыг харгалзан үзвэл хуурамч дохиоллыг бууруулж байна (магадгүй Боб тусгай төсөл дээр ажиллаж байгаа гэх мэт, хиймэл оюун ухаан заримдаа бусад өгөгдлөөс дүгнэж болно).
Хувь хүний таних тэмдэг болон хандалтын удирдлагын хүрээнд гүн хуурамч мэдээллийг илрүүлэх нь улам бүр нэмэгдэж буй хэрэгцээ болж байна - үүсгэгч хиймэл оюун ухаан нь биометрийн аюулгүй байдлыг төөрөгдүүлдэг синтетик дуу хоолой, видео үүсгэж чаддаг. Сонирхолтой нь, үүсгэгч хиймэл оюун ухаан нь хүмүүст анзаарагдахад хэцүү аудио эсвэл видео бичлэг дэх нарийн олдворуудыг шинжлэх замаар эдгээр гүн хуурамч мэдээллийг илрүүлэхэд тусалдаг. Бид Accenture-ийн жишээг харсан бөгөөд энэ нь тоо томшгүй олон нүүрний хувирал, нөхцөл байдлыг дуурайлган сургахад . Таван жилийн хугацаанд энэхүү арга нь Accenture-д системийн 90%-ийн нууц үгийг арилгахад (биометр болон бусад хүчин зүйл рүү шилжих) болон халдлагыг 60%-иар бууруулахад тусалсан ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Үндсэндээ тэд үүсгэгч хиймэл оюун ухааныг ашиглан биометрийн баталгаажуулалтыг бэхжүүлж, үүсгэгч халдлагын эсрэг тэсвэртэй болгосон (хиймэл оюун ухаан нь хиймэл оюун ухаантай тэмцэж байгаагийн гайхалтай жишээ). Энэ төрлийн зан үйлийн загварчлал - энэ тохиолдолд амьд хүний царай болон хиймэл оюун ухаанаар нийлэгжүүлсэн царайны хоорондох ялгааг таних нь маш чухал юм, учир нь бид баталгаажуулалтад хиймэл оюун ухаанд илүү найддаг.
Генератив хиймэл оюун ухаанаар ажилладаг гажиг илрүүлэх нь салбар бүрт хэрэглэгддэг: эрүүл мэндийн салбарт эмнэлгийн төхөөрөмжийн зан төлөвийг хакердах шинж тэмдгийг хянах; санхүүгийн салбарт луйвар эсвэл алгоритмын залилан мэхлэлтийг илтгэж болох жигд бус хэв маягийг хянах арилжааны системийг хянах; эрчим хүч/хэрэгслүүдэд халдлагын шинж тэмдгийг хянах хяналтын системийн дохиог ажиглах. өргөн цар хүрээ (зан үйлийн бүх талыг харах) ба гүн гүнзгий (нарийн төвөгтэй хэв маягийг ойлгох) нь кибер ослын зүүний индикаторыг илрүүлэх хүчирхэг хэрэгсэл болгодог. Аюул заналхийлэл нь ердийн үйл ажиллагааны дунд нуугдаж, нууцлаг болох тусам "хэвийн" гэсэн тодорхойлолтыг нарийн тодорхойлж, ямар нэгэн зүйл хазайхад хашгирах чадвар нь чухал болдог. Тиймээс Генератив хиймэл оюун ухаан нь хүрээлэн буй орчны өөрчлөлттэй хөл нийлүүлэн хэвийн байдлын тодорхойлолтоо үргэлж суралцаж, шинэчилж, аюулгүй байдлын багуудад илүү нягт нямбай шалгах шаардлагатай гажигийн талаар сэрэмжлүүлдэг цуцашгүй харуул болж үйлчилдэг.
Кибер аюулгүй байдлын салбарт үүсгэгч хиймэл оюун ухааны боломжууд ба давуу талууд
Кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашиглах нь эдгээр хэрэгслийг ашиглах хүсэлтэй байгууллагуудад олон боломж, ашиг тусыг . Доор бид генератив хиймэл оюун ухааныг кибер аюулгүй байдлын хөтөлбөрүүдэд нэмэлт болгон ашигладаг гол давуу талуудыг нэгтгэн дүгнэв.
-
Аюул заналхийллийг хурдан илрүүлэх, хариу арга хэмжээ авах: Хиймэл оюун ухааны системүүд нь асар их хэмжээний өгөгдлийг бодит цаг хугацаанд шинжилж, хүний гараар хийсэн шинжилгээнээс хамаагүй хурдан аюул заналхийллийг таньж чаддаг. Энэхүү хурдны давуу тал нь халдлагыг эрт илрүүлэх, ослыг илүү хурдан хязгаарлах гэсэн үг юм. Практикт хиймэл оюун ухаанаар удирдуулсан аюулгүй байдлын хяналт нь хүмүүстэй холбогдоход илүү удаан хугацаа шаардагдах аюул заналхийллийг илрүүлж чаддаг. Ослын үед шуурхай хариу үйлдэл үзүүлснээр (эсвэл бүр анхны хариу арга хэмжээг бие даан гүйцэтгэснээр) байгууллагууд халдагчдын сүлжээндээ байх хугацааг эрс багасгаж, хохирлыг хамгийн бага хэмжээнд байлгаж чадна.
-
Сайжруулсан нарийвчлал ба аюул заналын хамрах хүрээ: Тэд шинэ өгөгдлөөс тасралтгүй суралцдаг тул үүсгэгч загварууд нь хөгжиж буй аюул заналхийлэлд дасан зохицож, хортой үйл ажиллагааны илүү нарийн шинж тэмдгийг илрүүлж чаддаг. Энэ нь статик дүрмүүдтэй харьцуулахад илрүүлэлтийн нарийвчлалыг сайжруулдаг (худал сөрөг болон хуурамч эерэг тоо цөөрдөг). Жишээлбэл, фишинг имэйл эсвэл хортой програмын зан үйлийн онцлог шинжийг сурсан хиймэл оюун ухаан өмнө нь хэзээ ч харж байгаагүй хувилбаруудыг тодорхойлж чаддаг. Үүний үр дүнд шинэ халдлага зэрэг аюул заналын төрлүүдийн өргөн хүрээг хамарч, аюулгүй байдлын ерөнхий байдлыг бэхжүүлдэг. Аюулгүй байдлын багууд мөн хиймэл оюун ухааны шинжилгээнээс (жишээлбэл, хортой програмын зан үйлийн тайлбар) нарийвчилсан ойлголтыг олж авдаг бөгөөд энэ нь илүү нарийвчлалтай, чиглэсэн хамгаалалтыг бий болгодог ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ).
-
Давтагдах даалгавруудыг автоматжуулах: Үүсгэх хиймэл оюун ухаан нь бүртгэлүүдийг нягтлах, тайлан эмхэтгэхээс эхлээд ослын хариу үйлдлийн скрипт бичих хүртэлх энгийн, хөдөлмөр их шаарддаг аюулгүй байдлын ажлуудыг автоматжуулахад маш сайн. Энэхүү автоматжуулалт нь хүний шинжээчдийн ачааллыг бууруулж , тэднийг өндөр түвшний стратеги, нарийн төвөгтэй шийдвэр гаргалтад анхаарлаа төвлөрүүлэх боломжийг олгодог ( Кибер аюулгүй байдалд Үүсгэх хиймэл оюун ухаан гэж юу вэ? - Пало Алто Сүлжээ ). Эмзэг байдлыг сканнердах, тохиргооны аудит, хэрэглэгчийн үйл ажиллагааны шинжилгээ, нийцлийн тайлан зэрэг энгийн боловч чухал ажлуудыг хиймэл оюун ухаан гүйцэтгэж (эсвэл ядаж анх боловсруулсан) болно. Эдгээр ажлуудыг машины хурдаар гүйцэтгэснээр хиймэл оюун ухаан нь үр ашгийг сайжруулаад зогсохгүй хүний алдааг (зөрчлийн чухал хүчин зүйл) бууруулдаг.
-
Урьдчилан сэргийлэх хамгаалалт ба симуляци: Бүтээлч хиймэл оюун ухаан нь байгууллагуудад реактив аюулгүй байдлаас урьдчилан сэргийлэх аюулгүй байдал руу шилжих боломжийг олгодог. Халдлагын симуляци, синтетик өгөгдөл үүсгэх, хувилбарт суурилсан сургалт зэрэг техникүүдийн тусламжтайгаар хамгаалагчид нь өмнө . Аюулгүй байдлын багууд кибер халдлагыг (фишинг кампанит ажил, хортой програм хангамжийн дэгдэлт, DDoS гэх мэт) аюулгүй орчинд дуурайж, хариу арга хэмжээ авах, сул талыг нь бэхжүүлж чаддаг. Зөвхөн хүний хүчин чармайлтаар бүрэн гүйцэд хийх боломжгүй энэхүү тасралтгүй сургалт нь хамгаалалтыг хурц, шинэчилсэн байлгадаг. Энэ нь кибер "гал түймрийн сургуулилт"-тай адил юм - хиймэл оюун ухаан нь таны хамгаалалтад олон таамаглалын аюул заналхийлэл учруулж, та дадлага хийж, сайжруулж чадна.
-
Хүний мэргэжлийн ур чадварыг нэмэгдүүлэх (Хүчний үржүүлэгч болох хиймэл оюун ухаан): Үүсгэн байгуулагч хиймэл оюун ухаан нь цуцашгүй залуу шинжээч, зөвлөх, туслахын үүрэг гүйцэтгэдэг. Энэ нь туршлага багатай багийн гишүүдэд туршлагатай мэргэжилтнүүдээс ихэвчлэн хүлээгддэг удирдамж, зөвлөмжийг өгч, багийн туршлагыг үр дүнтэйгээр ардчилдаг Кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухааныг ашиглах 6 тохиолдол [+ Жишээ] ). Кибер аюулгүй байдлын авьяас чадварын хомсдолыг харгалзан үзвэл энэ нь ялангуяа үнэ цэнэтэй юм - хиймэл оюун ухаан нь жижиг багуудад бага зардлаар илүү ихийг хийхэд тусалдаг. Нөгөөтэйгүүр, туршлагатай шинжээчид хиймэл оюун ухаан нь хүнд ажлыг зохицуулж, илэрхий бус ойлголтуудыг гаргаж ирснээр ашиг тусаа өгдөг бөгөөд тэд үүнийг баталгаажуулж, арга хэмжээ авах боломжтой. Нийт үр дүн нь илүү бүтээмжтэй, чадвартай аюулгүй байдлын баг бөгөөд хиймэл оюун ухаан нь хүн бүрийн нөлөөллийг нэмэгдүүлдэг ( Кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухааныг хэрхэн ашиглах вэ ).
-
Сайжруулсан шийдвэр гаргах дэмжлэг болон тайлагнал: Техникийн өгөгдлийг байгалийн хэлний ойлголт руу хөрвүүлснээр үүсгэгч хиймэл оюун ухаан нь харилцаа холбоо, шийдвэр гаргалтыг сайжруулдаг. Аюулгүй байдлын удирдагчид хиймэл оюун ухаанаар үүсгэсэн хураангуйгаар дамжуулан асуудлуудыг илүү тодорхой харж, түүхий өгөгдлийг задлан шинжлэх шаардлагагүйгээр мэдээлэлтэй стратегийн шийдвэр гаргах боломжтой. Үүнтэй адилаар, хиймэл оюун ухаан нь аюулгүй байдлын байдал, ослын талаар ойлгоход хялбар тайлан бэлтгэснээр функц хоорондын харилцаа холбоо (гүйцэтгэх захирлууд, хууль тогтоомжийн хэрэгжилтийн ажилтнууд гэх мэт) сайжирдаг ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Энэ нь удирдлагын түвшинд аюулгүй байдлын асуудлаар итгэлцэл, уялдаа холбоог бий болгохоос гадна эрсдэл болон хиймэл оюун ухааны илрүүлсэн цоорхойг тодорхой илэрхийлснээр хөрөнгө оруулалт, өөрчлөлтийг зөвтгөхөд тусалдаг.
Эдгээр давуу талууд нь кибер аюулгүй байдалд генератив хиймэл оюун ухааныг ашигладаг байгууллагууд үйл ажиллагааны зардлыг бууруулж, илүү хүчтэй аюулгүй байдлын байр суурийг бий болгож чадна гэсэн үг юм. Тэд өмнө нь хэт их байсан аюул заналхийлэлд хариу үйлдэл үзүүлж, хяналтгүй байсан цоорхойг нөхөж, хиймэл оюун ухаанаар удирдуулсан санал хүсэлтийн гогцооноор дамжуулан тасралтгүй сайжруулж чадна. Эцсийн эцэст генератив хиймэл оюун ухаан нь хурд, цар хүрээ, боловсронгуй байдлыг ижил төстэй нарийн хамгаалалттай хослуулснаар өрсөлдөгчдөөсөө түрүүлэх боломжийг олгодог. Нэгэн судалгаагаар бизнесийн болон кибер удирдагчдын талаас илүү хувь нь генератив хиймэл оюун ухааныг ашигласнаар аюул заналхийллийг илүү хурдан илрүүлж, нарийвчлалыг нэмэгдүүлнэ гэж найдаж байна ( [PDF] Дэлхийн кибер аюулгүй байдлын төлөв 2025 | Дэлхийн эдийн засгийн форум ) ( Кибер аюулгүй байдал дахь генератив хиймэл оюун ухаан: LLM-ийн цогц тойм ... ) - эдгээр технологийн ашиг тусын талаарх өөдрөг үзлийн гэрч юм.
Кибер аюулгүй байдалд хиймэл оюун ухааныг ашиглахтай холбоотой эрсдэл ба бэрхшээлүүд
эрсдэл, бэрхшээлийг нүдээрээ харах нь чухал юм . Хиймэл оюун ухаанд сохроор итгэх эсвэл буруу ашиглах нь шинэ эмзэг байдлыг бий болгож болзошгүй юм. Доор бид гол санаа зовоосон асуудлууд болон бэрхшээлүүдийг тус бүрийн нөхцөл байдлын хамт тоймлон харуулав:
-
Кибер гэмт хэрэгтнүүдийн дайсагнасан хэрэглээ: Хамгаалагчдад тусалдаг ижил генератив чадварууд нь халдагчдыг чадавхжуулж чадна. Аюул заналхийллийн үйлдлүүд нь илүү итгэл үнэмшилтэй фишинг имэйл үүсгэх, хуурамч дүрүүд болон нийгмийн инженерчлэлийн гүнзгий хуурамч видео үүсгэх, илрүүлэхээс зайлсхийхийн тулд байнга өөрчлөгддөг полиморфик хортой програм хангамж боловсруулах, тэр ч байтугай хакердах үйл явцыг автоматжуулахын тулд генератив хиймэл оюун ухааныг аль хэдийн ашиглаж байна ( Кибер аюулгүй байдалд генератив хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ). Кибер аюулгүй байдлын удирдагчдын бараг тал хувь нь (46%) генератив хиймэл оюун ухаан нь илүү дэвшилтэт дайсагнасан халдлагад хүргэнэ гэж санаа зовж байна ( Генератив хиймэл оюун ухааны аюулгүй байдал: Чиг хандлага, аюул занал ба бууруулах стратеги ). Энэхүү "хиймэл оюун ухааны зэвсгийн уралдаан" нь хамгаалагчид хиймэл оюун ухааныг нэвтрүүлэхийн хэрээр халдагчид хол хоцрохгүй гэсэн үг юм (үнэндээ тэд зохицуулалтгүй хиймэл оюун ухааны хэрэгслийг ашиглан зарим чиглэлээр тэргүүлж магадгүй). Байгууллагууд илүү давтамжтай, боловсронгуй, мөрдөхөд хэцүү хиймэл оюун ухаанаар сайжруулсан аюул заналхийлэлд бэлэн байх ёстой.
-
Хиймэл оюун ухааны хий үзэгдэл ба алдаа: үнэмшилтэй боловч буруу эсвэл төөрөгдүүлсэн гаралтыг гаргаж чаддаг - хий үзэгдэл гэж нэрлэгддэг үзэгдэл. Аюулгүй байдлын хүрээнд хиймэл оюун ухаан нь ослыг шинжилж, тодорхой эмзэг байдал шалтгаан болсон гэж буруу дүгнэж болно, эсвэл халдлага агуулаагүй алдаатай нөхөн сэргээх скрипт үүсгэж болзошгүй. Эдгээр алдааг нүүрэн дээр нь авч үзвэл аюултай байж болно. NTT Data-ийн анхааруулснаар "үйлдвэрлэгч хиймэл оюун ухаан нь худал контент гаргаж болзошгүй бөгөөд энэ үзэгдлийг хий үзэгдэл гэж нэрлэдэг ... тэдгээрийг бүрэн арилгахад одоогоор хэцүү байна" ( Үүсгэн байгуулагч хиймэл оюун ухааны аюулгүй байдлын эрсдэл ба эсрэг арга хэмжээ, түүний кибер аюулгүй байдалд үзүүлэх нөлөө | NTT DATA Group ). Баталгаажуулалтгүйгээр хиймэл оюун ухаанд хэт найдвал буруу чиглэлд чиглэсэн хүчин чармайлт эсвэл аюулгүй байдлын хуурамч мэдрэмж төрүүлж болзошгүй. Жишээлбэл, хиймэл оюун ухаан нь чухал системийг аюулгүй биш гэж хуурамчаар тэмдэглэж, эсвэл эсрэгээрээ хэзээ ч болоогүй зөрчлийг "илрүүлснээр" сандрал үүсгэж болзошгүй. Хиймэл оюун ухааны гаралтыг хатуу баталгаажуулж, чухал шийдвэр гаргахад хүмүүсийг оролцуулах нь энэ эрсдэлийг бууруулахад чухал ач холбогдолтой.
-
Хуурамч эерэг ба сөрөг талууд: Хэрэв хий үзэгдэлтэй холбоотойгоор хиймэл оюун ухааны загварыг муу сургасан эсвэл тохируулсан бол хоргүй үйл ажиллагааг хортой (худал эерэг) гэж хэт мэдээлэх эсвэл бүр дордоход бодит аюул заналхийллийг алдах (худал сөрөг) байж болно ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ ). Хэт их хуурамч сэрэмжлүүлэг нь аюулгүй байдлын багуудыг дарамтанд оруулж, сэрэмжлүүлгийн ядаргаанд хүргэж болзошгүй (хиймэл оюун ухааны амласан үр ашгийн өсөлтийг үгүйсгэдэг), харин илрүүлэлтийг алдсан тохиолдолд байгууллагыг ил гаргадаг. Зөв тэнцвэрийг олохын тулд үүсгэгч загваруудыг тохируулах нь хэцүү байдаг. Орчны орчин бүр өвөрмөц бөгөөд хиймэл оюун ухаан тэр даруй оновчтой ажиллахгүй байж магадгүй юм. Тасралтгүй суралцах нь бас хоёр талдаа иртэй сэлэм юм - хэрэв хиймэл оюун ухаан нь гажуудсан санал хүсэлтээс эсвэл өөрчлөгдөж буй орчноос суралцвал түүний нарийвчлал хэлбэлзэж болно. Аюулгүй байдлын багууд хиймэл оюун ухааны гүйцэтгэлийг хянаж, босгыг тохируулах эсвэл загваруудад залруулах санал хүсэлт өгөх ёстой. Өндөр эрсдэлтэй нөхцөлд (чухал дэд бүтцийн халдлагыг илрүүлэх гэх мэт) хиймэл оюун ухааны саналуудыг одоо байгаа системүүдтэй зэрэгцүүлэн тодорхой хугацаанд ажиллуулах нь зүйтэй бөгөөд ингэснээр тэдгээр нь зөрчилдөхөөс илүүтэй уялдаа холбоотой, нөхөж байгаа эсэхийг баталгаажуулах боломжтой.
-
Өгөгдлийн нууцлал ба алдагдал: Үүсгэн байгуулагч хиймэл оюун ухааны системүүд нь сургалт, үйл ажиллагаанд их хэмжээний өгөгдөл шаарддаг. Хэрэв эдгээр загварууд нь үүлэн технологид суурилсан эсвэл зохих ёсоор тусгаарлагдаагүй бол нууц мэдээлэл алдагдаж болзошгүй. Хэрэглэгчид санамсаргүйгээр хувийн өгөгдөл эсвэл хувийн өгөгдлийг хиймэл оюун ухааны үйлчилгээнд оруулж болзошгүй (ChatGPT-ээс нууц ослын тайланг нэгтгэн дүгнэхийг хүсэх гэх мэт) бөгөөд энэ өгөгдөл нь загварын мэдлэгийн нэг хэсэг болж болзошгүй юм. Үнэндээ саяхны нэгэн судалгаагаар үүсгэн байгуулагч хиймэл оюун ухааны хэрэгслүүдэд оруулсан оролтын 55% нь нууц эсвэл хувь хүнийг тодорхойлох боломжтой мэдээлэл агуулсан байсан нь өгөгдөл алдагдахад ноцтой санаа зовоосон асуудал үүсгэж байна ( Үүсгэн байгуулагч хиймэл оюун ухааны аюулгүй байдал: Чиг хандлага, аюул занал ба бууруулах стратеги ). Нэмж дурдахад, хэрэв хиймэл оюун ухааныг дотоод өгөгдөл дээр сургасан бөгөөд тодорхой аргаар асуусан бол гаргаж . Байгууллагууд өгөгдөл боловсруулах хатуу бодлогыг хэрэгжүүлэх ёстой (жишээлбэл, нууц материалын хувьд байран дээрх эсвэл хувийн хиймэл оюун ухааны жишээг ашиглах), ажилтнуудад нууц мэдээллийг олон нийтийн хиймэл оюун ухааны хэрэгслүүдэд хуулахгүй байх талаар сургах ёстой. Нууцлалын зохицуулалт (GDPR гэх мэт) мөн хэрэгжиж эхэлдэг - зохих зөвшөөрөл эсвэл хамгаалалтгүйгээр хувийн мэдээллийг хиймэл оюун ухааныг сургахад ашиглах нь хууль зөрчиж болзошгүй.
-
Загварын аюулгүй байдал ба заль мэх: Үүсгэн байгуулагч хиймэл оюун ухааны загварууд өөрсдөө бай болж болно. Дайснууд нь сургалт эсвэл давтан сургалтын үе шатанд хортой эсвэл төөрөгдүүлсэн өгөгдлийг өгч, хиймэл оюун ухаан буруу хэв маягийг сурахын тулд загварыг хордуулахыг Кибер аюулгүй байдалд үүсгэн байгуулагч хиймэл оюун ухааныг хэрхэн ашиглах вэ ). Жишээлбэл, халдагч нь аюул заналхийллийн тагнуулын өгөгдлийг далд байдлаар хордуулж болзошгүй тул хиймэл оюун ухаан халдагчийн өөрийн хортой програмыг хортой гэж танихгүй болно. Өөр нэг тактик бол шуурхай тарилга эсвэл гаралтыг заль мэхлэх явдал бөгөөд халдагч нь хиймэл оюун ухаанд санамсаргүй байдлаар авирлахад хүргэдэг оролтуудыг өгөх арга замыг олдог - магадгүй түүний аюулгүй байдлын хашлагыг үл тоомсорлох эсвэл хийх ёсгүй мэдээллийг (дотоод өдөөлт эсвэл өгөгдөл гэх мэт) илчлэх. Нэмж дурдахад, загвараас зайлсхийх : халдагчид хиймэл оюун ухааныг хуурах зорилгоор тусгайлан бүтээсэн оролтыг бий болгодог. Бид үүнийг дайсагнасан жишээнүүдэд харж байна - хүн хэвийн гэж үздэг боловч хиймэл оюун ухаан буруу ангилдаг бага зэрэг гажуудсан өгөгдөл. Эдгээр хэрэгслийг ашиглах үед хиймэл оюун ухааны хангамжийн сүлжээний аюулгүй байдлыг хангах (өгөгдлийн бүрэн бүтэн байдал, загварын хандалтын хяналт, өрсөлдөгчдийн бат бөх байдлын туршилт) нь кибер аюулгүй байдлын шинэ боловч зайлшгүй шаардлагатай хэсэг юм ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ).
-
Хэт их найдвар ба ур чадварын элэгдэл: Байгууллагууд хиймэл оюун ухаанаас хэт хамааралтай болж, хүний ур чадварыг доройтуулах эрсдэл багатай. Хэрэв залуу шинжээчид хиймэл оюун ухааны гаралтад сохроор итгэвэл хиймэл оюун ухаан байхгүй эсвэл буруу үед шаардлагатай шүүмжлэлт сэтгэлгээ, зөн совингоо хөгжүүлэхгүй байж магадгүй юм. Зайлсхийх ёстой хувилбар бол маш сайн хэрэгслүүдтэй боловч эдгээр хэрэгслүүд ажиллахаа больсон тохиолдолд хэрхэн ажиллахаа мэдэхгүй аюулгүй байдлын баг юм (нисгэгчид автомат жолоодлогод хэт найддагтай адил). Хиймэл оюун ухааны тусламжгүйгээр тогтмол сургалт явуулж, хиймэл оюун ухаан бол алдаа мадаггүй мэргэ төлөгч биш, харин туслах гэсэн сэтгэлгээг төлөвшүүлэх нь хүний шинжээчдийг хурц байлгахад чухал ач холбогдолтой. Хүмүүс, ялангуяа өндөр нөлөө бүхий дүгнэлтийн хувьд эцсийн шийдвэр гаргагч хэвээр байх ёстой.
-
Ёс зүй ба нийцлийн сорилтууд: Кибер аюулгүй байдалд хиймэл оюун ухааныг ашиглах нь ёс зүйн асуултуудыг үүсгэж, зохицуулалтын нийцлийн асуудлыг үүсгэж болзошгүй. Жишээлбэл, хэрэв хиймэл оюун ухааны систем нь ажилтныг гажигтай холбоотойгоор хорлонтой дотоод хүн гэж буруугаар буруугаар тооцвол тухайн хүний нэр хүнд эсвэл карьерт шударга бусаар хохирол учруулж болзошгүй юм. Хиймэл оюун ухааны гаргасан шийдвэрүүд нь тодорхойгүй байж болно ("хар хайрцаг"-ын асуудал), аудиторууд эсвэл зохицуулагчдад тодорхой арга хэмжээ авсныг тайлбарлахад хэцүү болгодог. Хиймэл оюун ухаанаар үүсгэгдсэн контент улам бүр түгээмэл болж байгаа тул ил тод байдлыг хангах, хариуцлагатай байдлыг хадгалах нь чухал юм. Зохицуулагчид хиймэл оюун ухааныг нягталж эхэлж байна - жишээлбэл, Европын Холбооны хиймэл оюун ухааны тухай хууль нь "өндөр эрсдэлтэй" хиймэл оюун ухааны системд шаардлага тавих бөгөөд кибер аюулгүй байдлын хиймэл оюун ухаан энэ ангилалд багтаж магадгүй юм. Компаниуд эдгээр журмыг удирдаж, NIST хиймэл оюун ухааны эрсдэлийн удирдлагын хүрээ зэрэг стандартыг дагаж мөрдөх шаардлагатай бөгөөд үүсгэгч хиймэл оюун ухааныг хариуцлагатай ашиглах шаардлагатай болно ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Нийцлийн шаардлага нь лицензэд ч хамаатай: нээлттэй эхийн эсвэл гуравдагч талын загварыг ашиглах нь тодорхой хэрэглээг хязгаарлах эсвэл хуваалцах сайжруулалтыг шаарддаг нөхцөлтэй байж болно.
Товчхондоо, үүсгэгч хиймэл оюун ухаан бол мөнгөн сум биш - хэрэв болгоомжтой хэрэгжүүлэхгүй бол бусдыг нь шийдэж байгаа ч гэсэн шинэ сул талуудыг бий болгож болзошгүй юм. 2024 оны Дэлхийн эдийн засгийн форумын судалгаагаар байгууллагуудын ~47% нь халдагчдын үүсгэгч хиймэл оюун ухаанд гарсан дэвшлийг гол асуудал гэж үздэг бөгөөд энэ нь кибер аюулгүй байдалд "үүсгэгч хиймэл оюун ухааны хамгийн их анхаарал татсан нөлөө" [PDF] Дэлхийн кибер аюулгүй байдлын төлөв 2025 | Дэлхийн эдийн засгийн форум ) ( Кибер аюулгүй байдал дахь үүсгэгч хиймэл оюун ухаан: LLM-ийн цогц тойм ... ). Тиймээс байгууллагууд тэнцвэртэй хандлагыг баримтлах ёстой: хиймэл оюун ухааны ашиг тусыг ашиглахын зэрэгцээ эдгээр эрсдэлийг засаглал, туршилт, хүний хяналтаар хатуу зохицуулах ёстой. Дараа нь бид энэ тэнцвэрийг хэрхэн бодитоор хангах талаар хэлэлцэх болно.
Ирээдүйн төлөв: Кибер аюулгүй байдалд хиймэл оюун ухааны хувьсан өөрчлөгдөж буй үүрэг
Ирээдүйд хиймэл оюун ухаан нь кибер аюулгүй байдлын стратегийн салшгүй хэсэг болоход бэлэн байгаа бөгөөд үүнтэй адил кибер өрсөлдөгчид үргэлжлүүлэн ашиглах хэрэгсэл болж байна. Хиймэл муур, хулганы хөдөлгөөн хурдасна. Ирэх жилүүдэд хиймэл оюун ухаан кибер аюулгүй байдалд хэрхэн нөлөөлж болох талаарх зарим ирээдүйтэй ойлголтуудыг энд оруулав.
-
Хиймэл оюун ухаанаар сайжруулсан кибер хамгаалалт стандарт болж байна: 2025 он болон түүнээс хойш ихэнх дунд болон том байгууллагууд аюулгүй байдлын үйл ажиллагаандаа хиймэл оюун ухаанаар удирддаг хэрэгслүүдийг нэвтрүүлэх болно гэж бид үзэж байна. Вирусны эсрэг болон галт хана өнөөдөр стандарт болсонтой адил хиймэл оюун ухааны хамтран туршилтын систем болон аномали илрүүлэх системүүд нь аюулгүй байдлын архитектурын үндсэн бүрэлдэхүүн хэсэг болж магадгүй юм. Эдгээр хэрэгслүүд илүү мэргэшсэн болох магадлалтай - жишээлбэл, үүлэн аюулгүй байдал, IoT төхөөрөмжийн хяналт, програмын кодын аюулгүй байдал гэх мэтэд зориулж нарийн тохируулсан хиймэл оюун ухааны загварууд бүгд хамтдаа ажиллах болно. Нэгэн таамаглалд дурдсанаар, "2025 онд үүсгэгч хиймэл оюун ухаан нь кибер аюулгүй байдлын салшгүй хэсэг болж, байгууллагуудад нарийн төвөгтэй, хөгжиж буй аюул заналхийллээс урьдчилан сэргийлэх боломжийг олгоно" ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ ). Хиймэл оюун ухаан нь бодит цагийн аюул заналхийллийг илрүүлэх, олон хариу арга хэмжээг автоматжуулах, аюулгүй байдлын багуудад гараар хийж чадахаас хамаагүй их хэмжээний өгөгдлийг удирдахад туслах болно.
-
Тасралтгүй суралцах ба дасан зохицох: тагнуулаас шууд суралцахдаа илүү сайн болж , мэдлэгийн баазаа бараг бодит цаг хугацаанд шинэчилнэ. Энэ нь үнэхээр дасан зохицох хамгаалалтад хүргэж болзошгүй - өглөө өөр компанид шинэ фишинг кампанит ажил дайрч байгааг мэдээд үдээс хойш танай компанийн имэйл шүүлтүүрийг аль хэдийн тохируулсан хиймэл оюун ухаан гэж төсөөлөөд үз дээ. Үүлэн технологид суурилсан хиймэл оюун ухааны аюулгүй байдлын үйлчилгээ нь нэг байгууллагын нэрээ нууцалсан мэдээлэл нь бүх захиалагчдад ашиг тустай (аюул заналын тагнуулын мэдээлэл хуваалцахтай адил боловч автоматжуулсан) хамтын сургалтын энэ төрлийн хэлбэрийг хөнгөвчлөх боломжтой. Гэсэн хэдий ч энэ нь нууц мэдээллийг хуваалцахаас зайлсхийх, халдагчид хуваалцсан загваруудад муу өгөгдөл оруулахаас урьдчилан сэргийлэхийн тулд болгоомжтой харьцах шаардлагатай болно.
-
Хиймэл оюун ухаан болон кибер аюулгүй байдлын авьяас чадварын нэгдэл: Кибер аюулгүй байдлын мэргэжилтнүүдийн ур чадварын багц нь хиймэл оюун ухаан болон өгөгдлийн шинжлэх ухааны ур чадварыг багтааж хөгжих болно. Өнөөгийн шинжээчид асуулгын хэл болон скриптийг сурдагтай адил маргаашийн шинжээчид хиймэл оюун ухааны загваруудыг тогтмол сайжруулж эсвэл хиймэл оюун ухааныг ажиллуулах "тоглоомын ном" бичиж болно. Бид "Хиймэл оюун ухааны аюулгүй байдлын сургагч багш" эсвэл "Кибер аюулгүй байдлын хиймэл оюун ухааны инженер" - хиймэл оюун ухааны хэрэгслийг байгууллагын хэрэгцээнд нийцүүлэх, гүйцэтгэлийг нь баталгаажуулах, аюулгүй ажиллагааг хангах чиглэлээр мэргэшсэн хүмүүс. Нөгөөтэйгүүр, кибер аюулгүй байдлын асуудлууд нь хиймэл оюун ухааны хөгжилд улам бүр нөлөөлөх болно. Хиймэл оюун ухааны системийг эхнээс нь аюулгүй байдлын онцлог шинж чанаруудаар (аюулгүй архитектур, хөндлөнгийн оролцоог илрүүлэх, хиймэл оюун ухааны шийдвэрийн аудитын бүртгэл гэх мэт) бүтээх бөгөөд найдвартай хиймэл оюун ухааны (шударга, тайлбарлах боломжтой, бат бөх, найдвартай) нь аюулгүй байдлын чухал нөхцөлд тэдгээрийг байршуулахад чиглүүлэх болно.
-
Илүү боловсронгуй хиймэл оюун ухаанаар ажилладаг халдлагууд: Харамсалтай нь, аюул заналхийллийн орчин нь хиймэл оюун ухаантай хамт хөгжих болно. Бид тэг өдрийн эмзэг байдлыг илрүүлэх, өндөр зорилтот жадны фишинг үүсгэх (жишээлбэл, хиймэл оюун ухаан нь төгс тохируулсан өгөөш үүсгэхийн тулд олон нийтийн мэдээллийн хэрэгслийг хусах), биометрийн баталгаажуулалтыг тойрч гарах эсвэл залилан мэхлэх зорилгоор итгүүлэх гүнзгий хуурамч дуу хоолой эсвэл видео үүсгэх зорилгоор хиймэл оюун ухааныг илүү олон удаа ашиглах болно гэж таамаглаж байна. Хүний хяналт багатайгаар олон үе шаттай халдлага (тагнуул, мөлжлөг, хажуугийн хөдөлгөөн гэх мэт) бие даан хийх боломжтой автомат хакерын агентууд гарч ирж магадгүй юм. Энэ нь хамгаалагчдыг хиймэл оюун ухаанд найдахад шахалт үзүүлэх болно - үндсэндээ автоматжуулалт ба автоматжуулалт . Зарим халдлага нь машины хурдаар тохиолдож болно, жишээлбэл, хиймэл оюун ухаантай ботууд аль нь шүүлтүүрийг давж гарахыг харахын тулд мянган фишинг имэйлийн өөрчлөлтийг оролддог. Кибер хамгаалалт нь хөл нийлүүлэн алхахын тулд ижил хурд, уян хатан байдлаар ажиллах шаардлагатай болно ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухаан гэж юу вэ? - Пало Алто сүлжээ ).
-
Аюулгүй байдлын зохицуулалт ба ёс зүйн хиймэл оюун ухаан: Хиймэл оюун ухаан кибер аюулгүй байдлын чиг үүрэгт гүн гүнзгий нэвтэрч байгаа тул эдгээр хиймэл оюун ухааны системийг хариуцлагатай ашиглаж байгаа эсэхийг баталгаажуулахын тулд илүү их хяналт шалгалт, зохицуулалт хийгдэх болно. Бид аюулгүй байдлын салбарт хиймэл оюун ухаанд зориулсан тусгай хүрээ, стандартыг хүлээж болно. Засгийн газрууд ил тод байдлын удирдамжийг тогтоож болно - жишээлбэл, аюулгүй байдлын чухал шийдвэрүүдийг (жишээлбэл, ажилтны сэжигтэй хорлонтой үйл ажиллагааны хандалтыг зогсоох) хүний хяналтгүйгээр хиймэл оюун ухаан дангаараа гаргах боломжгүй байхыг шаардах. Мөн хиймэл оюун ухааны аюулгүй байдлын бүтээгдэхүүний гэрчилгээ байж болох бөгөөд энэ нь худалдан авагчдад хиймэл оюун ухааныг нэг талыг баримтлах, бат бөх, аюулгүй байдлаар үнэлсэн болохыг баталгаажуулах болно. Цаашилбал, хиймэл оюун ухаантай холбоотой кибер аюул заналхийллийн эргэн тойронд олон улсын хамтын ажиллагаа өргөжиж магадгүй юм; жишээлбэл, хиймэл оюун ухаанаар бий болсон худал мэдээлэлтэй харьцах гэрээ эсвэл хиймэл оюун ухаанаар удирдуулсан тодорхой кибер зэвсгийн эсрэг хэм хэмжээ.
-
Илүү өргөн хүрээтэй хиймэл оюун ухаан болон мэдээллийн технологийн экосистемтэй нэгтгэх: Кибер аюулгүй байдлын салбар дахь үүсгэгч хиймэл оюун ухаан нь бусад хиймэл оюун ухааны систем болон мэдээллийн технологийн удирдлагын хэрэгслүүдтэй нэгтгэгдэх магадлалтай. Жишээлбэл, сүлжээний оновчлолыг удирддаг хиймэл оюун ухаан нь өөрчлөлтүүд нь цоорхой нээхгүй байхын тулд аюулгүй байдлын хиймэл оюун ухаантай хамтран ажиллаж болно. Хиймэл оюун ухаанаар удирддаг бизнесийн аналитик нь гажигтай (жишээлбэл, халдлагын улмаас борлуулалтын огцом бууралт болон вэбсайтын асуудал үүсэх гэх мэт) холбоотой байхын тулд аюулгүй байдлын хиймэл оюун ухаантай өгөгдлийг хуваалцаж болно. Үндсэндээ хиймэл оюун ухаан нь тусгаарлагдмал байдалд амьдрахгүй - энэ нь байгууллагын үйл ажиллагааны илүү том ухаалаг бүтцийн нэг хэсэг байх болно. Энэ нь үйл ажиллагааны өгөгдөл, аюул заналын өгөгдөл, тэр ч байтугай физик аюулгүй байдлын өгөгдлийг хиймэл оюун ухаанаар нэгтгэж, байгууллагын аюулгүй байдлын байр суурийг 360 градусаар харах боломжийг олгодог цогц эрсдэлийн менежментийн боломжийг нээж өгдөг.
Урт хугацаанд генератив хиймэл оюун ухаан нь тэнцвэрийг хамгаалагчдын талд эргүүлэхэд тусална гэж найдаж байна. Орчин үеийн мэдээллийн технологийн орчны цар хүрээ, нарийн төвөгтэй байдлыг зохицуулснаар хиймэл оюун ухаан нь кибер орон зайг илүү хамгаалалттай болгож чадна. Гэсэн хэдий ч энэ бол аялал бөгөөд бид эдгээр технологийг боловсронгуй болгож, тэдэнд зохих ёсоор итгэж сурах тусам бэрхшээлүүд улам бүр нэмэгдэх болно. Мэдээлэлтэй байж, хиймэл оюун ухааныг хариуцлагатайгаар нэвтрүүлэхэд ирээдүйн аюул заналхийллийг даван туулах хамгийн сайн байр суурьтай байх болно.
Gartner-ийн саяхны кибер аюулгүй байдлын чиг хандлагын тайланд тэмдэглэснээр, "хиймэл оюун ухааны хэрэглээний тохиолдлууд (болон эрсдэлүүд) гарч ирж байгаа нь өөрчлөлтөд дарамт учруулж байна" ( Кибер аюулгүй байдлын чиг хандлага: Өөрчлөлтөөр дамжуулан тэсвэртэй байдал - Gartner ). Дасан зохицох хүмүүс хиймэл оюун ухааныг хүчирхэг холбоотон болгон ашиглах болно; хоцрогдсон хүмүүс хиймэл оюун ухааны хүчээр хүчирхэгжсэн өрсөлдөгчдөөсөө хоцорч магадгүй юм. Дараагийн хэдэн жил нь хиймэл оюун ухаан кибер тулааны талбарыг хэрхэн өөрчлөхийг тодорхойлох чухал үе байх болно.
Кибер аюулгүй байдалд хиймэл оюун ухааныг нэвтрүүлэх практик зөвлөмжүүд
Кибер аюулгүй байдлын стратегидаа генератив хиймэл оюун ухааныг хэрхэн ашиглах талаар үнэлж буй бизнесүүдийн хувьд хариуцлагатай, үр дүнтэй нэвтрүүлэлтийг удирдан чиглүүлэх практик дүгнэлт, зөвлөмжийг
-
Боловсрол, сургалтаас эхэл: Аюулгүй байдлын баг (болон өргөн хүрээний мэдээллийн технологийн ажилтнууд) нь хиймэл оюун ухаан юу хийж чадах, юу хийж чадахгүйг ойлгож байгаа эсэхийг шалгаарай. Хиймэл оюун ухаанаар удирддаг аюулгүй байдлын хэрэгслүүдийн үндсийг сургалтанд хамруулж, аюулгүй байдлын мэдлэг олгох хөтөлбөрөө . Жишээлбэл, ажилтнуудад хиймэл оюун ухаан хэрхэн маш итгэл үнэмшилтэй фишинг луйвар болон гүнзгий хуурамч дуудлага үүсгэж болохыг заа. Үүний зэрэгцээ ажилчдад хиймэл оюун ухааны хэрэгслийг ажилдаа аюулгүй, батлагдсан байдлаар ашиглах талаар сургалт явуул. Мэдээлэл сайтай хэрэглэгчид хиймэл оюун ухааныг буруу ашиглах эсвэл хиймэл оюун ухаанаар сайжруулсан халдлагын хохирогч болох магадлал бага байдаг ( Кибер аюулгүй байдалд хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ).
-
Хиймэл оюун ухааны хэрэглээний тодорхой бодлогыг тодорхойлох: Генератив хиймэл оюун ухааныг аливаа хүчирхэг технологи шиг засаглалтай харьц. Хэн хиймэл оюун ухааны хэрэгслийг ашиглаж болох, ямар хэрэгслийг зөвшөөрсөн, ямар зорилгоор ашиглахыг тодорхойлсон бодлогыг боловсруул. Алдагдлаас урьдчилан сэргийлэхийн тулд мэдрэмтгий өгөгдлийг боловсруулах удирдамжийг оруулна уу (жишээ нь, нууц мэдээллийг гадаад хиймэл оюун ухааны үйлчилгээнд оруулахгүй байх ). Жишээлбэл, та зөвхөн аюулгүй байдлын багийн гишүүдэд ослын хариу арга хэмжээнд дотоод хиймэл оюун ухааны туслахыг ашиглахыг зөвшөөрч болох бөгөөд маркетинг нь контентод шалгагдсан хиймэл оюун ухааныг ашиглаж болно - бусад бүх хүмүүс хязгаарлагдмал. Олон байгууллага одоо мэдээллийн технологийн бодлогодоо генератор хиймэл оюун ухааныг тодорхой авч үзэж байгаа бөгөөд тэргүүлэх стандартын байгууллагууд шууд хориглохын оронд аюулгүй хэрэглээний бодлогыг дэмжиж байна ( Кибер аюулгүй байдалд генератор хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Эдгээр дүрэм журам болон тэдгээрийн үндэслэлийг бүх ажилчдад мэдээлэхээ мартуузай.
-
"Сүүдрийн хиймэл оюун ухаан" болон хяналтын хэрэглээг багасгах: Сүүдрийн мэдээллийн технологийн нэгэн адил "сүүдрийн хиймэл оюун ухаан" нь ажилтнууд мэдээллийн технологийн мэдлэггүйгээр хиймэл оюун ухааны хэрэгсэл эсвэл үйлчилгээг ашиглаж эхлэхэд үүсдэг (жишээ нь, хөгжүүлэгч зөвшөөрөлгүй хиймэл оюун ухааны кодын туслах ашиглаж байна). Энэ нь үл үзэгдэх эрсдэлийг бий болгож болзошгүй. Зөвшөөрөлгүй хиймэл оюун ухааны хэрэглээг илрүүлэх, хянах . Сүлжээний хяналт нь алдартай хиймэл оюун ухааны API-уудтай холболтыг тэмдэглэж, судалгаа эсвэл хэрэгслийн аудит нь ажилтнууд юу ашиглаж байгааг илрүүлж чадна. Сайн санаатай ажилтнууд залилан мэхлэхээс зайлсхийхийн тулд батлагдсан хувилбаруудыг санал болго (жишээлбэл, хэрэв хүмүүс хэрэгтэй гэж үзвэл ChatGPT Enterprise-ийн албан ёсны бүртгэлийг өгөх). Хиймэл оюун ухааны хэрэглээг ил болгосноор аюулгүй байдлын багууд эрсдэлийг үнэлж, удирдах боломжтой. Хяналт нь бас чухал юм - хиймэл оюун ухааны хэрэгслийн үйл ажиллагаа, гаралтыг аль болох бүртгэх, ингэснээр хиймэл оюун ухааны нөлөөлсөн шийдвэрүүдийн аудитын мөр байх болно ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ).
-
Хамгаалалтын хувьд хиймэл оюун ухааныг ашигла – Хоцрогдож болохгүй: Халдагчид хиймэл оюун ухааныг ашиглах болно гэдгийг хүлээн зөвшөөр, тиймээс таны хамгаалалт ч бас ашиглах ёстой. Аюулгүй байдлын үйл ажиллагаанд тань шууд тусалж болох хэд хэдэн өндөр нөлөө бүхий чиглэлийг тодорхойл (магадгүй дохиоллын ангилалт эсвэл автоматжуулсан бүртгэлийн шинжилгээ), туршилтын төслүүдийг хэрэгжүүл. Хурдан өөрчлөгдөж буй аюул заналхийллийг эсэргүүцэхийн тулд хиймэл оюун ухааны хурд, цар хүрээг ашиглан хамгаалалтаа сайжруул Кибер аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглах вэ? 10 бодит жишээ ). Хортой програм хангамжийн тайланг нэгтгэн дүгнэх эсвэл аюул заналхийллийн ангуучлалын асуулга үүсгэхэд хиймэл оюун ухааныг ашиглах гэх мэт энгийн интеграцчилал нь шинжээчдийн цагийг хэмнэж чадна. Багаас эхэлж, үр дүнг үнэлж, давтана. Амжилт нь хиймэл оюун ухааныг өргөн хүрээнд нэвтрүүлэх үндэслэлийг бий болгоно. Зорилго нь хиймэл оюун ухааныг хүч үржүүлэгч болгон ашиглах явдал юм - жишээлбэл, фишинг халдлага таны тусламжийн ширээг эзэлж байгаа бол энэ хэмжээг урьдчилан бууруулахын тулд хиймэл оюун ухааны имэйл ангилагчийг байрлуул.
-
Аюулгүй, ёс зүйтэй хиймэл оюун ухааны практикт хөрөнгө оруулалт хий: Бүтээлч хиймэл оюун ухааныг хэрэгжүүлэхдээ аюулгүй хөгжүүлэлт болон байршуулалтын практикийг дагаж мөрдөөрэй. хувийн эсвэл өөрөө зохион байгуулдаг загваруудыг . Хэрэв гуравдагч талын хиймэл оюун ухааны үйлчилгээг ашиглаж байгаа бол тэдгээрийн аюулгүй байдал, нууцлалын хэмжүүрүүдийг (шифрлэлт, өгөгдөл хадгалах бодлого гэх мэт) хянаж үзээрэй. Хиймэл оюун ухааны хэрэгслүүддээ алдаа дутагдал, тайлбарлах чадвар, бат бөх байдал зэрэг зүйлсийг системтэйгээр шийдвэрлэхийн тулд хиймэл оюун ухааны эрсдэлийн удирдлагын хүрээг (NIST-ийн хиймэл оюун ухааны эрсдэлийн удирдлагын хүрээ эсвэл ISO/IEC удирдамж гэх мэт) оруулна уу ( Кибер аюулгүй байдалд үүсмэл хиймэл оюун ухааныг хэрхэн ашиглаж болох вэ? 10 бодит жишээ ). Мөн засвар үйлчилгээний нэг хэсэг болгон загварын шинэчлэлт/нөхөөс хийхээр төлөвлөөрэй - хиймэл оюун ухааны загварууд нь "эмзэг байдал"-тай байж болно (жишээлбэл, хэрэв тэд гүйлгэж эхэлбэл эсвэл загварт шинэ төрлийн дайсагнасан халдлага илэрвэл давтан сургалт шаардлагатай байж магадгүй). Хиймэл оюун ухааны хэрэглээндээ аюулгүй байдал, ёс зүйг оруулснаар та үр дүнд итгэх итгэлийг бий болгож, шинээр гарч ирж буй дүрэм журмыг дагаж мөрдөхийг баталгаажуулна.
-
Хүмүүсийг мэдээлэлтэй байлга: Кибер аюулгүй байдлын салбарт хүний дүгнэлтийг бүрэн орлуулахын оронд хиймэл оюун ухааныг ашиглаарай. Хүний баталгаажуулалт шаардлагатай шийдвэр гаргах цэгүүдийг тодорхойл (жишээлбэл, хиймэл оюун ухаан ослын тайланг боловсруулж болох ч шинжээч түгээхээс өмнө хянаж болно; эсвэл хиймэл оюун ухаан хэрэглэгчийн бүртгэлийг хаахыг санал болгож болох ч хүн уг үйлдлийг зөвшөөрнө). Энэ нь хиймэл оюун ухааны алдааг шалгагдаагүй байхаас сэргийлээд зогсохгүй танай багт хиймэл оюун ухаанаас суралцахад тусалдаг бөгөөд эсрэгээрээ. Хамтын ажиллагааны ажлын урсгалыг дэмжинэ: шинжээчид хиймэл оюун ухааны гаралтыг асууж, эрүүл мэндийн шалгалт хийхэд тухтай байх ёстой. Цаг хугацаа өнгөрөхөд энэхүү харилцан яриа нь хиймэл оюун ухаан (санал хүсэлтээр дамжуулан) болон шинжээчдийн ур чадварыг сайжруулж чадна. Үндсэндээ хиймэл оюун ухаан болон хүний давуу талууд бие биенээ нөхөж байхаар үйл явцаа төлөвлөөрэй - хиймэл оюун ухаан нь хэмжээ болон хурдыг зохицуулдаг, хүмүүс хоёрдмол утгатай байдал болон эцсийн шийдвэрийг зохицуулдаг.
-
Хэмжих, хянах, тохируулах: Эцэст нь, өөрийн үүсгэгч хиймэл оюун ухааны хэрэгслүүдийг аюулгүй байдлын экосистемийн амьд бүрэлдэхүүн хэсэг гэж үз. Тэдний гүйцэтгэлийг тасралтгүй хэмжиж байгаарай - тэдгээр нь ослын хариу арга хэмжээний хугацааг бууруулж байна уу? Аюул заналыг эрт илрүүлж байна уу? Хуурамч эерэг үзүүлэлт хэрхэн чиглэж байна вэ? Багийн санал хүсэлтийг авах: хиймэл оюун ухааны зөвлөмжүүд хэрэгтэй юу, эсвэл чимээ шуугиан үүсгэж байна уу? Эдгээр үзүүлэлтүүдийг ашиглан загваруудыг боловсронгуй болгох, сургалтын өгөгдлийг шинэчлэх эсвэл хиймэл оюун ухааныг хэрхэн нэгтгэж байгааг тохируулах. Кибер аюул заналхийлэл болон бизнесийн хэрэгцээ хувьсан өөрчлөгдөж, таны хиймэл оюун ухааны загваруудыг үр дүнтэй байлгахын тулд үе үе шинэчилж эсвэл дахин сургах хэрэгтэй. Загварын засаглалын төлөвлөгөөтэй байх, үүнд хэн үүнийг хариуцах, хэр олон удаа хянаж үзэх зэрэг орно. Хиймэл оюун ухааны амьдралын мөчлөгийг идэвхтэй удирдснаар та үүнийг өр төлбөр биш харин хөрөнгө хэвээр байлгах болно.
Эцэст нь хэлэхэд, хиймэл оюун ухаан нь кибер аюулгүй байдлын чадавхийг мэдэгдэхүйц сайжруулж чадна, гэхдээ амжилттай нэвтрүүлэхэд сайтар бодож төлөвлөлт, тасралтгүй хяналт шаардлагатай. Хүмүүсээ сургаж, тодорхой удирдамж тогтоож, хиймэл оюун ухааныг тэнцвэртэй, аюулгүй байдлаар нэгтгэсэн бизнесүүд илүү хурдан, ухаалаг аюул заналхийллийн менежментийн үр шимийг хүртэх болно. Эдгээр дүгнэлтүүд нь замын зураглалыг өгдөг: хүний мэргэжлийг хиймэл оюун ухааны автоматжуулалттай хослуулах, засаглалын үндсийг хамрах, хиймэл оюун ухааны технологи болон аюул заналхийллийн хүрээ хоёулаа зайлшгүй хөгжиж байх үед уян хатан байдлыг хадгалах.
Эдгээр практик алхмуудыг хийснээр байгууллагууд "Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ?" зөвхөн онолын хувьд ч биш, өдөр тутмын практикт ч итгэлтэйгээр хариулж, улмаар улам бүр дижитал болж, хиймэл оюун ухаанд хөтлөгдөж буй дэлхийд хамгаалалтаа бэхжүүлж чадна. ( Кибер аюулгүй байдалд үүсгэгч хиймэл оюун ухааныг хэрхэн ашиглах вэ )
Үүний дараа таны унших дуртай байж болох цагаан цааснууд:
🔗 Хиймэл оюун ухаан орлож чадахгүй ажлын байрууд болон хиймэл оюун ухаан ямар ажлын байрыг орлох вэ?
Аль албан тушаалууд автоматжуулалтаас аюулгүй, аль нь аюулгүй биш байгаа талаарх дэлхийн хэтийн төлөвийг судлаарай.
🔗 Хиймэл оюун ухаан хөрөнгийн зах зээлийг урьдчилан таамаглаж чадах уу?
Зах зээлийн хөдөлгөөнийг урьдчилан таамаглах хиймэл оюун ухааны чадварын хязгаарлалт, нээлт, домог зүйг нарийвчлан авч үзэх.
🔗 Хүний оролцоогүйгээр хиймэл оюун ухаанд юу найдаж болох вэ? Хиймэл
оюун ухаан бие даан ажиллаж чадах газар, хүний хяналт хаана чухал хэвээр байгааг ойлгоорой.