Товч хариулт: Генератив хиймэл оюун ухааныг ашигладаг хөгжүүлэгчид зөвхөн загварын гаралтад төдийгүй бүхэл бүтэн системийн хариуцлагыг хүлээдэг. Хиймэл оюун ухаан нь шийдвэр, код, нууцлал эсвэл хэрэглэгчийн итгэлцэлд нөлөөлөх үед тэд аюулгүй програмуудыг сонгож, үр дүнг баталгаажуулж, өгөгдлийг хамгаалж, хор хөнөөлийг бууруулж, хүмүүс алдааг хянаж, дарж, засах боломжтой эсэхийг баталгаажуулах ёстой.
Гол дүгнэлтүүд:
Баталгаажуулалт : Эх сурвалж, туршилт эсвэл хүний хяналтаар баталгаажуулах хүртэл өнгөлсөн гаралтыг итгэлгүй гэж үзнэ үү.
Өгөгдөл хамгаалах : Шуурхай өгөгдлийг багасгах, танигчдыг устгах, лог, хандалтын хяналт болон нийлүүлэгчдийг хамгаалах.
Шударга байдал : Хэвшмэл ойлголт болон жигд бус бүтэлгүйтлийн хэв маягийг илрүүлэхийн тулд хүн ам зүйн мэдээлэл болон нөхцөл байдлыг бүхэлд нь туршиж үзэх.
Ил тод байдал : Хиймэл оюун ухааны хэрэглээг тодорхой шошголох, түүний хязгаарыг тайлбарлах, хүний хяналт эсвэл давж заалдах хүсэлтийг санал болгох.
Хариуцлага : Ашиглахаас өмнө байршуулалт, осол, хяналт, буцаан олголтын тодорхой эзэмшигчдийг томилно.

Үүний дараа таны унших дуртай нийтлэлүүд:
🔗 Програм хангамж хөгжүүлэгчдэд зориулсан шилдэг хиймэл оюун ухааны хэрэгслүүд: Хиймэл оюун ухаанаар ажилладаг шилдэг код бичих туслахууд
Илүү хурдан, цэвэр хөгжүүлэлтийн ажлын урсгалд хүрэхийн тулд шилдэг хиймэл оюун ухааны код бичих туслахуудыг харьцуулж үзээрэй.
🔗 Хөгжүүлэгчдэд зориулсан бүтээмжийг нэмэгдүүлэх шилдэг 10 хиймэл оюун ухааны хэрэгсэл
Илүү ухаалаг код бичих болон хурдад зориулсан хөгжүүлэгчийн хиймэл оюун ухааны хэрэгслүүдийн жагсаалтад багтсан.
🔗 Яагаад хиймэл оюун ухаан нийгэм болон итгэлцэлд муугаар нөлөөлж болох вэ
Бодит ертөнцийн хор хөнөөлийг тайлбарладаг: ялгаварлан гадуурхалт, хувийн нууц, ажлын байр, буруу мэдээллийн эрсдэл.
🔗 Хиймэл оюун ухаан өндөр эрсдэлтэй шийдвэр гаргахдаа хэт хол явсан уу?
Хиймэл оюун ухаан хэзээ хил хязгаарыг давж гарахыг тодорхойлдог: тагналт, хуурамч мэдээлэл, ятгах, зөвшөөрөлгүй байх.
Яагаад Generative AI ашигладаг хөгжүүлэгчдийн хариуцлага хүмүүсийн бодож байгаагаас илүү чухал вэ
Програм хангамжийн олон алдаа бухимдлыг төрүүлдэг. Товчлуур гацдаг. Хуудас удаан ачаалагддаг. Ямар нэгэн зүйл гацаж, хүн бүр ёолдог.
Хиймэл оюун ухааны үүсэлтэй асуудлууд өөр өөр байж болно. Тэдгээр нь нарийн байж болно.
Загвар нь буруу байсан ч өөртөө итгэлтэй сонсогдож болно. NIST GenAI профайл Энэ нь илэрхий анхааруулах тэмдэггүйгээр алдааг хуулбарлаж чадна. NIST GenAI профайл Хэрэв хайхрамжгүй ашиглавал мэдрэмтгий өгөгдлийг илчилж болно. LLM програмуудад зориулсан OWASP шилдэг 10 ICO-ийн үүсгэгч хиймэл оюун ухааны найман асуулт Энэ нь ажилладаг кодыг бий болгож чадна - үйлдвэрлэлд ямар нэгэн ичгүүртэй байдлаар бүтэлгүйтэх хүртэл. LLM програмуудад зориулсан OWASP шилдэг 10 Хэзээ ч унтдаггүй, хааяа гайхалтай итгэлтэйгээр баримтуудыг зохион бүтээдэг маш урам зоригтой дадлагажигч ажилд авахтай адил юм.
Тийм ч учраас Generative AI ашигладаг хөгжүүлэгчдийн үүрэг хариуцлага нь энгийн хэрэгжилтээс илүү том юм. Хөгжүүлэгчид зөвхөн логик систем бүтээхээ больсон. Тэд бүдэг ирмэгтэй, урьдчилан таамаглах аргагүй гаралттай, бодит нийгмийн үр дагавартай магадлалын системийг бүтээж байна. NIST AI RMF
Энэ нь хариуцлагад дараахь зүйлс орно гэсэн үг юм
-
NIST AI RMF загварын хязгаарыг ойлгох нь
-
хэрэглэгчийн нууцлалыг хамгаалах хиймэл оюун ухаан болон өгөгдөл хамгаалах талаархи ICO удирдамж
-
хортой гаралтыг бууруулах NIST GenAI профайл
-
Итгэмжлэл олгохоос өмнө нарийвчлалыг шалгах NIST GenAI профайл
-
хүний үүргийг тодорхой болгох нь OECD-ийн хиймэл оюун ухааны зарчмууд
-
хиймэл оюун ухаан бүтэлгүйтсэн үед нөөц замуудыг төлөвлөх OECD хиймэл оюун ухааны зарчмууд NCSC-ийн аюулгүй байдлын хиймэл оюун ухааны удирдамж
-
системийг тодорхой баримтжуулах нь OECD-ийн хиймэл оюун ухааны зарчмууд
Хэрэгсэл ид шидийн мэт санагдах үед хүмүүс үүнийг эргэлзэхээ больдог гэдгийг та мэднэ. Хөгжүүлэгчид тийм тайван байж чадахгүй.
Бүтээлч хиймэл оюун ухаан ашигладаг хөгжүүлэгчдийн хариуцлагын сайн хувилбарыг юу бүрдүүлдэг вэ? 🛠️
Хариуцлагын сайн хувилбар нь гүйцэтгэлийн шинж чанартай биш юм. Энэ нь зүгээр л доод хэсэгт нь мэдэгдэл нэмээд ёс зүй гэж нэрлэх биш юм. Энэ нь дизайны сонголт, туршилтын зуршил, бүтээгдэхүүний зан төлөвт илэрдэг.
Бүтээлч хиймэл оюун ухаан ашигладаг хөгжүүлэгчдийн хариуцлагын хүчтэй хувилбар нь ихэвчлэн дараах байдалтай байдаг.
-
NIST AI RMF-ийг санаатайгаар ашиглах
-
Хиймэл оюун ухааныг загварлаг сонсогдож байгаа учраас бүтээгдэхүүн рүү шахаж оруулаагүй, харин жинхэнэ асуудалд ашиглаж байна.
-
-
Хүний хяналт OECD-ийн хиймэл оюун ухааны зарчмууд
-
Хүмүүс гаралтыг хянаж, засаж, дарж эсвэл татгалзаж болно.
-
-
Дизайнаар аюулгүй байдал NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
Эрсдэлийн хяналтыг эхнээс нь хийдэг болохоос дараа нь скочоор наадаггүй.
-
-
Ил тод байдал OECD хиймэл оюун ухааны зарчмууд Европын комиссын хиймэл оюун ухааны тухай хуулийн тойм
-
Хэрэглэгчид контентыг хиймэл оюун ухаанаар үүсгэсэн эсвэл хиймэл оюун ухааны тусламжтайгаар хэзээ үүсгэсэнийг ойлгодог.
-
-
Өгөгдөл арчилгаа ICO-ийн генератив хиймэл оюун ухааны талаарх найман асуулт
-
Мэдрэмтгий мэдээллийг болгоомжтой авч үздэг бөгөөд хандалт хязгаарлагдмал байдаг.
-
-
Шударга ёсны шалгалт NIST GenAI профайл Хиймэл оюун ухаан болон өгөгдөл хамгаалах талаархи ICO удирдамж
-
Системийг алдаа, жигд бус ажиллагаа, хортой хэв маягийг шалгасан.
-
-
NIST AI RMF NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамжийн тасралтгүй хяналт
-
Хөөргөлт бол барианы шугам биш. Энэ нь гарааны шүгэлтэй илүү төстэй.
-
Хэрэв энэ нь их сонсогдож байвал... тийм л байна. Гэхдээ шийдвэр, итгэл үнэмшил, зан төлөвт нөлөөлж чадах технологитой ажиллах үед энэ нь чухал юм. OECD-ийн хиймэл оюун ухааны зарчмууд
Харьцуулсан хүснэгт - Бүтээлч хиймэл оюун ухаан ашигладаг хөгжүүлэгчдийн гол үүрэг хариуцлага 📋
| Хариуцлагын хэсэг | Энэ нь хэнд нөлөөлдөг вэ | Өдөр тутмын хөгжүүлэгчийн дадлага | Яагаад чухал вэ |
|---|---|---|---|
| Нарийвчлал ба баталгаажуулалт | хэрэглэгчид, багууд, үйлчлүүлэгчид | Гаралтыг хянаж, баталгаажуулалтын давхаргыг нэмж, ирмэгийн тохиолдлуудыг туршиж үзээрэй | Хиймэл оюун ухаан чөлөөтэй ярьж чаддаг ч гэсэн маш буруу байж болно - энэ бол NIST GenAI профайлын |
| Нууцлалын хамгаалалт | хэрэглэгчид, үйлчлүүлэгчид, дотоод ажилтнууд | Мэдрэмтгий өгөгдлийн хэрэглээг багасгах, заавруудыг цэвэрлэх, логуудыг хянах | Хувийн мэдээлэл алдагдсаны дараа шүдний оо нь хоолойноос гардаг 😬 ICO-ийн генератив хиймэл оюун ухааны найман асуулт OWASP LLM програмуудад зориулсан шилдэг 10 |
| Ялгаварлан гадуурхалт ба шударга ёс | төлөөлөл багатай бүлгүүд, бүх хэрэглэгчид үнэхээр | Аудит гаралт, янз бүрийн оролтыг шалгах, хамгаалалтын арга хэмжээг тохируулах | Хор хөнөөл үргэлж чанга байдаггүй - заримдаа системтэй, чимээгүй байдаг NIST GenAI профайл Хиймэл оюун ухаан болон өгөгдөл хамгаалах талаархи ICO удирдамж |
| Аюулгүй байдал | компанийн системүүд, хэрэглэгчид | Загварт хандах эрхийг хязгаарлах, шуурхай тарилга хийхээс хамгаалах, эрсдэлтэй үйлдлүүдээс хамгаалах | Нэг ухаалаг үйлдэл нь итгэлийг хурдан хугацаанд үгүй хийж чадна. LLM програмуудын OWASP-ийн шилдэг 10 нь хиймэл оюун ухаан болон кибер аюулгүй байдлын чиглэлээр ажилладаг NCSC юм. |
| Ил тод байдал | эцсийн хэрэглэгчид, зохицуулагчид, дэмжлэг үзүүлэх багууд | Хиймэл оюун ухааны зан төлөвийг тодорхой шошголох, хязгаарлалтыг тайлбарлах, баримт бичгийн хэрэглээ | OECD-ийн хиймэл оюун ухааны зарчмуудын практикийн дүрэмд тусалж байгаа үед хүмүүс мэдэх эрхтэй. |
| Хариуцлага | бүтээгдэхүүний эзэмшигчид, хууль эрх зүй, хөгжүүлэлтийн багууд | Эзэмшил, ослыг зохицуулах, өргөжүүлэх замыг тодорхойлох | "Хиймэл оюун ухаан үүнийг хийсэн" гэдэг нь насанд хүрэгчдийн хариулт биш бөгөөд OECD-ийн хиймэл оюун ухааны зарчмууд |
| Найдвартай байдал | бүтээгдэхүүнд хүрсэн хүн бүр | Алдаа дутагдлыг хянах, итгэлцлийн босгыг тохируулах, нөөц логик үүсгэх | Загварууд гэнэтийн байдлаар бүтэлгүйтэж, хааяа NIST AI RMF NCSC-ийн аюулгүй байдлын удирдамжийн дагуу |
| Хэрэглэгчийн сайн сайхан байдал | ялангуяа эмзэг хэрэглэгчид | Залилан мэхлэх загвараас зайлсхийх, хортой гаралтыг хязгаарлах, өндөр эрсдэлтэй хэрэглээний тохиолдлуудыг хянах | OECD-ийн хиймэл оюун ухааны зарчмууд NIST хиймэл оюун ухааны RMF байх ёстой гэсэн үг биш юм. |
Бага зэрэг тэгш бус ширээ, гэхдээ энэ нь сэдэвт тохирсон. Жинхэнэ хариуцлага ч бас тэгш бус байдаг.
Хариуцлага нь эхний асуултаас өмнө эхэлдэг - зөв хэрэглээний тохиолдлыг сонгох 🎯
Хөгжүүлэгчдийн хамгийн том үүрэг хариуцлагын нэг бол генераторын хиймэл оюун ухааныг огт ашиглах эсэхээ . NIST хиймэл оюун ухаан RMF
Энэ нь илэрхий сонсогдож байгаа ч байнга алгасдаг. Багууд загварыг хараад, догдолж, дүрэм, хайлт эсвэл ердийн програм хангамжийн логикоор илүү сайн зохицуулагдах ажлын урсгал руу шахаж эхэлдэг. Бүх асуудалд хэлний загвар шаардлагагүй. Зарим асуудалд мэдээллийн сан, нам гүм үдээс хойш хэрэгтэй.
Барилга барихаас өмнө хөгжүүлэгчид дараахь зүйлийг асуух хэрэгтэй
-
Даалгавар нь нээлттэй эсвэл тодорхойлогдсон уу?
-
Буруу гаралт нь хор хөнөөл учруулж болох уу?
-
Хэрэглэгчид бүтээлч байдал, таамаглал, нэгтгэн дүгнэх, автоматжуулалт хэрэгтэй юу эсвэл зүгээр л хурд хэрэгтэй юу?
-
Хүмүүс гаралтад хэт итгэх үү? NIST GenAI профайл
-
Хүн үр дүнг бодитойгоор хянаж чадах уу? OECD-ийн хиймэл оюун ухааны зарчмууд
-
Загвар буруу байвал юу болох вэ? OECD-ийн хиймэл оюун ухааны зарчмууд
Хариуцлагатай хөгжүүлэгч зүгээр л "Бид үүнийг барьж болох уу?" гэж асуудаггүй. Тэд "Үүнийг ингэж барих ёстой юу?" гэж асуудаг. NIST AI RMF
Энэ асуулт өөрөө олон утгагүй зүйлээс сэргийлдэг.
Нарийвчлал бол хариуцлага болохоос нэмэлт боломж биш ✅
Тодорхой хэлье - үүсгэгч хиймэл оюун ухааны хамгийн том урхины нэг бол уран яруу үгийг үнэнтэй андуурдаг явдал юм. Загварууд нь ихэвчлэн өнгөлсөн, бүтэцлэгдсэн, гүн гүнзгий итгэл үнэмшилтэй сонсогддог хариултуудыг гаргадаг. Энэ нь агуулгыг өөртөө итгэлтэйгээр ороосон утгагүй зүйл болтол сайхан байдаг. NIST GenAI профайл
Тиймээс Generative AI ашигладаг хөгжүүлэгчдийн үүрэг хариуцлагад баталгаажуулалтад зориулж бүтээх ажил багтдаг.
Энэ нь:
-
боломжтой бол сэргээн авах эсвэл газардуулга ашиглах NIST GenAI профайл
-
үүсгэсэн контентыг батлагдсан баримтаас ялгах OECD хиймэл оюун ухааны зарчмууд
-
NIST AI RMF-д итгэх итгэлийн босгыг болгоомжтой нэмэх
-
өндөр эрсдэлтэй үр дүнд зориулсан хяналтын ажлын урсгалыг бий болгох, OECD-ийн хиймэл оюун ухааны зарчмууд
-
чухал нөхцөл байдалд загварыг импровизаци хийхээс урьдчилан сэргийлэх NIST GenAI профайл
-
системийг эвдэх эсвэл төөрөгдүүлэхийг оролддог туршилтын зааварчилгаанууд OWASP-ийн LLM програмуудын шилдэг 10
Энэ нь дараах чиглэлээр маш чухал юм:
-
эрүүл мэндийн үйлчилгээ
-
санхүү
-
хууль эрх зүйн ажлын урсгалууд
-
боловсрол
-
хэрэглэгчийн дэмжлэг
-
аж ахуйн нэгжийн автоматжуулалт
-
код үүсгэх
Жишээлбэл, үүсгэсэн код нь аюулгүй байдлын алдаа эсвэл логикийн алдааг нуун дарагдуулж байхдаа цэвэрхэн харагдаж болно. Үүнийг сохроор хуулбарладаг хөгжүүлэгч үр ашигтай биш - тэд зүгээр л эрсдэлийг илүү гоёмсог хэлбэрээр гаднын байгууллагад шилжүүлж байна. LLM програмуудын OWASP шилдэг 10 нь хиймэл оюун ухаан болон кибер аюулгүй байдлын NCSC юм.
Загвар нь тусалж чадна. Хөгжүүлэгч үр дүнг эзэмшсээр байна. OECD-ийн хиймэл оюун ухааны зарчмууд
Нууцлал болон өгөгдлийн хамгаалалт нь хэлэлцээр хийх боломжгүй 🔐
Энд л бүх зүйл хурдан ноцтой болж эхэлдэг. Үүсгэх хиймэл оюун ухааны системүүд нь ихэвчлэн мөр, лог, контекст цонх, санах ойн давхарга, аналитик болон гуравдагч талын дэд бүтцэд тулгуурладаг. Энэ нь мэдрэмтгий өгөгдөл алдагдаж, хадгалагдах эсвэл хэрэглэгчдийн хэзээ ч төсөөлөөгүй байдлаар дахин ашиглагдах олон боломжийг бий болгодог. ICO-ийн үүсгэгч хиймэл оюун ухааны найман асуулт OWASP LLM програмуудад зориулсан шилдэг 10.
Хөгжүүлэгчид дараахь зүйлийг хамгаалах үүрэгтэй
-
хувийн мэдээлэл
-
санхүүгийн бүртгэл
-
эмнэлгийн дэлгэрэнгүй мэдээлэл
-
компанийн дотоод мэдээлэл
-
худалдааны нууц
-
баталгаажуулалтын жетонууд
-
үйлчлүүлэгчийн харилцаа холбоо
Хариуцлагатай практикт дараахь зүйлс орно
-
загварт ямар өгөгдөл орж байгааг багасгах ICO-ийн генератив хиймэл оюун ухааны найман асуулт
-
NIST GenAI профайлыг танигчдыг масклах эсвэл арилгах
-
лог хадгалахыг хязгаарлах хиймэл оюун ухаан болон өгөгдөл хамгаалах талаарх ICO-ийн удирдамж
-
LLM програмуудад зориулсан OWASP-ийн шилдэг 10 мөр болон гаралтад хэн хандах боломжтойг хянах
-
үйлдвэрлэгчийн тохиргоог сайтар хянаж үзэх NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
өндөр эрсдэлтэй ажлын урсгалыг тусгаарлах NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
нууцлалын зан төлөвийг хэрэглэгчдэд харагдахуйц болгох ICO-ийн генератив хиймэл оюун ухаанд зориулсан найман асуулт
Энэ бол "бид үүний талаар бодохоо мартсан" гэсэн жижиг алдаа биш, харин итгэлцлийг эвдэх бүтэлгүйтлийн нэг юм.
Нэгэнт хагарсан итгэлцэл унасан шил шиг тархдаг. Магадгүй хамгийн цэвэрхэн зүйрлэл биш байж болох ч та ойлгож байна.
Нэг талыг барьсан байдал, шударга ёс, төлөөлөл - илүү чимээгүй хариуцлага ⚖️
Бүтээгч хиймэл оюун ухаанд нэг талыг барьсан байдал нь хүүхэлдэйн киноны хорон санаатан байх нь ховор байдаг. Энэ нь ихэвчлэн үүнээс илүү гулгамтгай байдаг. Загвар өмсөгч нь тодорхой түгшүүр төрүүлэхгүйгээр хэвшмэл ойлголттой ажлын тодорхойлолт, жигд бус зохицуулалтын шийдвэр, нэг талыг барьсан зөвлөмж эсвэл соёлын хувьд нарийн таамаглал дэвшүүлж болно. NIST GenAI профайл
Тийм ч учраас Generative AI ашигладаг хөгжүүлэгчдийн үүрэг хариуцлагад идэвхтэй шударга ёсны ажил багтдаг.
Хөгжүүлэгчид дараах зүйлсийг хийх ёстой:
-
өөр өөр демографик болон нөхцөл байдлаас авсан туршилтын хүсэлтүүд NIST GenAI профайл
-
NIST GenAI профайлын хэвшмэл ойлголтууд болон хасалтын үр дүнг хянах
-
үнэлгээний явцад олон янзын үзэл бодлыг хамарна NIST AI RMF
-
NIST GenAI профайлын жигд бус бүтэлгүйтлийн хэв маягийг ажиглаарай
-
нэг хэлний хэв маяг эсвэл соёлын хэм хэмжээ хүн бүрт тохирно гэж үзэхээс зайлсхий. Хиймэл оюун ухаан болон өгөгдөл хамгаалах талаарх ICO-ийн удирдамж
-
NIST AI RMF-ийн хортой гаралтын талаар мэдээлэх сувгуудыг бий болгох
Систем нь ерөнхийдөө сайн ажиллаж байгаа мэт харагдаж болох ч зарим хэрэглэгчдэд бусдаасаа муу үйлчилгээ үзүүлдэг. Энэ нь зүгээр л хяналтын самбар дээр дундаж гүйцэтгэл сайхан харагдаж байгаа учраас хүлээн зөвшөөрөгдөхгүй. Хиймэл оюун ухаан болон өгөгдөл хамгаалах талаарх ICO удирдамж NIST GenAI профайл
Тийм ээ, шударга ёс гэдэг цэвэрхэн шалгах жагсаалтаас илүү хэцүү. Үүнд шүүлт багтдаг. Нөхцөл байдал. Буудалцаа. Мөн таагүй байдлын хэмжүүр. Гэхдээ энэ нь хариуцлагыг арилгадаггүй - үүнийг баталдаг. Хиймэл оюун ухаан болон өгөгдөл хамгаалах талаархи ICO удирдамж
Аюулгүй байдал одоо нэг талаас шуурхай дизайн, нөгөө талаас инженерийн сахилга бат болсон 🧱
Хиймэл оюун ухааны аюулгүй байдал гэдэг өөрийн гэсэн өвөрмөц араатан юм. Мэдээж уламжлалт аппликейшны аюулгүй байдал чухал хэвээр байгаа ч хиймэл оюун ухааны системүүд нь ер бусын халдлагын гадаргууг нэмж өгдөг: шуурхай оруулга, шууд бус шуурхай удирдамж, аюулгүй бус багаж хэрэгслийг ашиглах, контекстээр дамжуулан өгөгдлийг гадагшлуулах, автоматжуулсан ажлын урсгалаар дамжуулан загварыг буруу ашиглах. LLM програмуудын OWASP шилдэг 10 нь хиймэл оюун ухаан болон кибер аюулгүй байдлын NCSC юм.
Хөгжүүлэгчид зөвхөн интерфэйсийг төдийгүй системийг бүрэн хамгаалах үүрэгтэй. NCSC-ийн аюулгүй байдлын хиймэл оюун ухааны удирдамж
Энд гол үүрэг хариуцлагад дараахь зүйлс орно
-
LLM програмуудад зориулсан OWASP-ийн шилдэг 10 итгэмжлэгдээгүй оролтыг ариутгах
-
LLM програмуудад зориулсан OWASP-ийн шилдэг 10 хэрэгслийг нэрлэж болохыг хязгаарлах
-
файл болон сүлжээний хандалтыг хязгаарлах NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
зөвшөөрлийг тодорхой ялгах NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
хүчирхийллийн хэв маягийг хянах NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
Үнэ хязгаарлах үнэтэй эсвэл эрсдэлтэй үйлдлүүд LLM өргөдөл гаргагчдын OWASP-ийн шилдэг 10
-
LLM програмуудад зориулсан OWASP-ийн шилдэг 10 өрсөлдөгч өдөөлтийг турших
-
OECD-ийн хиймэл оюун ухааны зарчмуудтай зөрчилдөх үед аюулгүй нөөц бололцоог бий болгох
Нэг таагүй үнэн бол хэрэглэгчид болон халдагчид хөгжүүлэгчдийн төсөөлөөгүй зүйлийг туршиж үзэх болно. Зарим нь сониуч зангаасаа, зарим нь хорон санаанаас, зарим нь шөнийн 2 цагт буруу зүйл дарснаас болж ийм зүйл тохиолддог.
Бүтээлч хиймэл оюун ухааны аюулгүй байдал нь хана барихаас илүүтэй заримдаа хэллэгээр хууртагддаг маш яриа хөөрөөтэй хаалгачийг удирдахтай адил юм.
Ил тод байдал болон хэрэглэгчийн зөвшөөрөл нь гял цал UX-ээс илүү чухал юм 🗣️
Хэрэглэгчид хиймэл оюун ухаантай харилцахдаа үүнийг мэдэж байх ёстой. OECD-ийн хиймэл оюун ухаанаар үүсгэгдсэн контентыг тэмдэглэх, шошголох зарчмууд.
Бүдэг бадаг биш. Нөхцөлөөр нь ч нуугдаагүй. Тодорхой.
Бүтээлч хиймэл оюун ухааныг ашигладаг хөгжүүлэгчдийн хариуцлагын гол хэсэг нь хэрэглэгчид дараах зүйлийг ойлгож байгаа эсэхийг баталгаажуулах явдал юм.
-
Хиймэл оюун ухааныг ашиглах үед ЭЗХАХБ-ын Хиймэл оюун ухааны зарчмууд
-
Хиймэл оюун ухаан юу хийж чадах, юу хийж чадахгүй вэ? , хөгжлийн байгууллага (OECD)-ын Хиймэл оюун ухааны зарчмууд
-
Гарцыг хүмүүс хянаж байгаа эсэх, ЭЗХАХБ-ын хиймэл оюун ухааны зарчмууд
-
тэдний өгөгдлийг хэрхэн боловсруулдаг вэ? ICO-ийн генератив хиймэл оюун ухааны найман асуулт
-
NIST AI RMF-д ямар түвшний итгэл үнэмшилтэй байх ёстой вэ?
-
Асуудлыг хэрхэн мэдээлэх эсвэл шийдвэрийг хэрхэн давж заалдах вэ OECD AI Principles NIST AI RMF
Ил тод байдал гэдэг нь хэрэглэгчдийг айлгах тухай биш, харин тэднийг хүндэтгэх тухай юм.
Сайн ил тод байдал дараахь зүйлийг агуулж болно
-
энгийн хэлээр тайлбарласан OECD-ийн хиймэл оюун ухааны зарчмууд
-
холбогдох хэсэгт харагдахуйц засварлах түүхүүд
-
хиймэл оюун ухааны функцийг унтраах сонголтууд
-
Шаардлагатай үед хүн болж өсөх нь OECD-ийн хиймэл оюун ухааны зарчмууд
-
Өндөр эрсдэлтэй ажлуудын товч анхааруулга Европын Комиссын хиймэл оюун ухааны тухай хуулийн тойм
Шударга байдал нь уг функцийг ид шидийн мэт сэтгэгдэл төрүүлэхгүй гэж олон бүтээгдэхүүний багууд санаа зовдог. Магадгүй. Гэхдээ хуурамч тодорхой байдал бүр дор. Эрсдэлийг нуудаг жигд интерфэйс нь үндсэндээ өнгөлсөн төөрөгдөл юм.
Хөгжүүлэгчид загвар нь "шийдвэрлэсэн" ч гэсэн хариуцлагатай хэвээр байна 👀
Энэ хэсэг нь маш чухал юм. Хариуцлагыг загвар үйлдвэрлэгч, загвар карт, зааврын загвар эсвэл машин сургалтын нууцлаг уур амьсгалд шилжүүлж болохгүй. OECD AI Principles NIST AI RMF
Хөгжүүлэгчид хариуцлага хүлээсээр байна. OECD-ийн хиймэл оюун ухааны зарчмууд
Энэ нь багийн хэн нэгэн нь дараахь зүйлийг эзэмших ёстой гэсэн үг юм
-
загвар сонголт NIST AI RMF
-
туршилтын стандартууд NIST GenAI профайл
-
гаргах шалгуур NIST GenAI профайл
-
ослын хариу арга хэмжээ NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж
-
хэрэглэгчийн гомдлыг зохицуулах NIST AI RMF
-
буцаах журам OECD-ийн хиймэл оюун ухааны зарчмууд
-
өөрчлөлтийг хянах OECD-ийн хиймэл оюун ухааны зарчмууд
-
баримтжуулалт OECD хиймэл оюун ухааны зарчмууд
Дараах асуултуудад тодорхой хариулт байх ёстой:
-
Байршуулалтыг хэн баталж байна вэ? NIST GenAI профайл
-
Хортой гаралтын ослыг хэн хянадаг вэ? NIST GenAI профайл
-
Хэн энэ функцийг идэвхгүй болгож чадах вэ? OECD-ийн хиймэл оюун ухааны зарчмууд
-
Регрессийг хэн хянадаг вэ? NIST AI RMF
-
Ямар нэгэн зүйл эвдэрсэн үед хэн хэрэглэгчидтэй харилцдаг вэ? OECD-ийн хиймэл оюун ухааны зарчмууд
Хариуцлага эзэмшихгүйгээр манан болж хувирдаг. Хүн бүр үүнийг хэн нэгэн хариуцаж байна гэж боддог... тэгээд хэн ч хариуцахгүй.
Үнэндээ энэ хэв маяг нь хиймэл оюун ухаанаас эртнийх. Хиймэл оюун ухаан үүнийг илүү аюултай болгодог.
Хариуцлагатай хөгжүүлэгчид төгс төгөлдөр байдлын төлөө биш, харин залруулгын төлөө бүтээдэг 🔄
Энэ бүхний жижигхэн эргэлт энд байна: хариуцлагатай хиймэл оюун ухааныг хөгжүүлэх нь системийг төгс гэж дүр эсгэх тухай биш. Энэ нь ямар нэгэн байдлаар бүтэлгүйтнэ гэж таамаглаж, тэр бодит байдалд нийцүүлэн загвар гаргах тухай юм. NIST хиймэл оюун ухаан RMF
Энэ нь дараахь зүйлийг агуулсан бүтээгдэхүүн үйлдвэрлэх гэсэн үг юм
-
аудит хийх боломжтой OECD хиймэл оюун ухааны зарчмууд
-
шийдвэр болон үр дүнг дараа нь хянаж болно
-
-
тасалдалгүй OECD хиймэл оюун ухааны зарчмууд
-
Хүмүүс муу зан авирыг зогсоох эсвэл өөрчлөх боломжтой
-
-
нөхөн сэргээгдэх боломжтой OECD хиймэл оюун ухааны зарчмууд
-
хиймэл оюун ухааны гаралт буруу байх үед нөөц боломж байдаг
-
-
Хяналттай NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж NIST AI RMF
-
багууд гамшиг болохоосоо өмнө хэв маягийг илрүүлж чадна
-
-
сайжруулж болох NIST GenAI профайл
-
санал хүсэлтийн давталт байдаг бөгөөд хэн нэгэн тэдгээрийг уншдаг
-
Энэ бол төлөвшил гэж юу вэ. Гялалзсан демо биш. Амьсгаа дарсан маркетингийн хуулбар биш. Хашлага, бүртгэл, хариуцлага, машин нь шидтэн биш гэдгийг хүлээн зөвшөөрөх хангалттай даруу байдалтай жинхэнэ системүүд. NCSC-ийн аюулгүй хиймэл оюун ухааны удирдамж OECD-ийн хиймэл оюун ухааны зарчмууд
Учир нь тийм биш. Энэ бол хэрэгсэл. Тийм ээ, хүчирхэг хэрэгсэл. Гэхдээ л хэрэгсэл хэвээрээ.
Бүтээлч хиймэл оюун ухаан ашигладаг хөгжүүлэгчдийн хариуцлагын талаарх эцсийн эргэцүүлэл 🌍
Generative AI ашигладаг хөгжүүлэгчдийн үүрэг хариуцлага юу вэ ?
Энэ нь болгоомжтой бүтээх явдал юм. Систем хаана тусалж, хаана хор хөнөөл учруулж байгааг асуух. Нууцлалыг хамгаалах. Нэг талыг баримталж байгаа эсэхийг шалгах. Гаралтыг баталгаажуулах. Ажлын урсгалыг аюулгүй болгох. Хэрэглэгчидтэй ил тод байх. Хүмүүсийг утга учиртай хяналтанд байлгах. Аливаа зүйл буруу болоход хариуцлагатай байх. NIST AI RMF OECD AI зарчмууд
Энэ нь хүнд сонсогдож магадгүй - тийм ч хэцүү биш. Гэхдээ энэ нь бас бодлоготой хөгжлийг болгоомжгүй автоматжуулалтаас ялгаж салгадаг зүйл юм.
Генератив хиймэл оюун ухааныг ашигладаг шилдэг хөгжүүлэгчид загварыг хамгийн их заль мэхийг хийдэг хүмүүс биш. Тэд бол эдгээр заль мэхийн үр дагаврыг ойлгож, түүндээ тохируулан загвар гаргадаг хүмүүс юм. Тэд хурд чухал гэдгийг мэддэг ч итгэл бол жинхэнэ бүтээгдэхүүн юм. Онцгойлон хэлэхэд, энэ хуучны санаа одоо ч хэвээрээ байна. NIST AI RMF
Эцсийн эцэст хариуцлага бол инновацид саад тотгор биш юм. Энэ нь инновацийг өнгөлсөн интерфэйстэй, өөртөө итгэх итгэлийн асуудалтай, үнэтэй, үймээн самуунтай тархалт болгон хувиргахаас сэргийлдэг зүйл юм 😬✨
Мөн магадгүй энэ нь хамгийн энгийн хувилбар байж болох юм.
Зоригтойгоор бүтээ, мэдээж - гэхдээ хүмүүст нөлөөлж болох юм шиг бүтээ. Эдийн засгийн хамтын ажиллагаа, хөгжлийн байгууллагын хиймэл оюун ухааны зарчмууд
Түгээмэл асуултууд
Практикт генератив хиймэл оюун ухааныг ашигладаг хөгжүүлэгчдийн үүрэг хариуцлага юу вэ?
Хиймэл оюун ухааныг ашигладаг хөгжүүлэгчдийн үүрэг хариуцлага нь функцуудыг хурдан хүргэхээс хамаагүй өргөн хүрээг хамардаг. Үүнд зөв хэрэглээний тохиолдлыг сонгох, гаралтыг турших, нууцлалыг хамгаалах, хортой зан үйлийг бууруулах, системийг хэрэглэгчдэд ойлгомжтой болгох зэрэг орно. Практикт хөгжүүлэгчид уг хэрэгслийг хэрхэн зохион бүтээх, хянах, засах, алдаа гарсан тохиолдолд хэрхэн зохицуулах үүрэгтэй хэвээр байна.
Яагаад генератив хиймэл оюун ухаан нь ердийн програм хангамжаас илүү хөгжүүлэгчийн хариуцлага шаарддаг вэ?
Уламжлалт алдаанууд нь ихэвчлэн илэрхий байдаг ч хиймэл оюун ухааны алдаа нь өнгөлсөн мэт сонсогдож болох ч буруу, нэг талыг барьсан эсвэл эрсдэлтэй хэвээр байна. Энэ нь асуудлыг илрүүлэхэд хэцүү болгож, хэрэглэгчдэд алдаагаар итгэхэд хялбар болгодог. Хөгжүүлэгчид магадлалын системүүдтэй ажиллаж байгаа тул хариуцлагад тодорхойгүй байдлыг зохицуулах, хохирлыг хязгаарлах, худалдаанд гаргахаас өмнө урьдчилан таамаглах боломжгүй гарцуудад бэлтгэх зэрэг орно.
Хөгжүүлэгчид хэзээ генератив хиймэл оюун ухааныг ашиглах ёсгүйг яаж мэдэх вэ?
Нийтлэг эхлэх цэг бол даалгавар нь нээлттэй үү эсвэл дүрэм, хайлт эсвэл стандарт програм хангамжийн логикоор илүү сайн зохицуулагддаг уу гэж асуух явдал юм. Хөгжүүлэгчид буруу хариулт хэр их хор хөнөөл учруулж болох, хүн үр дүнг бодитойгоор хянаж чадах эсэхийг авч үзэх хэрэгтэй. Хариуцлагатай хэрэглээ гэдэг нь заримдаа үүсгэгч хиймэл оюун ухааныг огт ашиглахгүй байх шийдвэр гаргах гэсэн үг юм.
Хөгжүүлэгчид хиймэл оюун ухааны систем дэх хий үзэгдэл болон буруу хариултыг хэрхэн бууруулах вэ?
Нарийвчлалыг таамаглах биш, харин төлөвлөх шаардлагатай. Олон дамжуулах хоолойд энэ нь гаралтыг итгэмжлэгдсэн эх сурвалжид үндэслэх, үүсгэсэн текстийг баталгаажсан баримтаас ялгах, өндөр эрсдэлтэй ажлуудад хяналтын ажлын урсгалыг ашиглах гэсэн үг юм. Хөгжүүлэгчид системийг төөрөгдүүлэх эсвэл төөрөгдүүлэх зорилготой заавруудыг, ялангуяа код бичих, дэмжлэг үзүүлэх, санхүү, боловсрол, эрүүл мэндийн үйлчилгээ зэрэг чиглэлээр туршиж үзэх хэрэгтэй.
Нууцлал болон мэдрэмтгий өгөгдлийн хувьд генератив хиймэл оюун ухааныг ашигладаг хөгжүүлэгчдийн үүрэг хариуцлага юу вэ?
Хиймэл оюун ухааныг ашигладаг хөгжүүлэгчдийн үүрэг хариуцлагад загварт орж буй өгөгдлийг багасгах, заавар, бүртгэл, гаралтыг мэдрэмтгий гэж үзэх зэрэг орно. Хөгжүүлэгчид боломжтой бол танигчдыг арилгах, хадгалах хугацааг хязгаарлах, хандалтыг хянах, үйлдвэрлэгчийн тохиргоог сайтар хянах хэрэгтэй. Хэрэглэгчид мөн эрсдэлийг дараа нь олж мэдэхийн оронд өөрсдийн өгөгдлийг хэрхэн зохицуулж байгааг ойлгох чадвартай байх ёстой.
Хөгжүүлэгчид хиймэл оюун ухааны гаралтад нэг талыг баримтлах болон шударга байдлыг хэрхэн зохицуулах ёстой вэ?
Нэг талыг барьсан ажил нь таамаглал биш харин идэвхтэй үнэлгээ шаарддаг. Практик арга бол өөр өөр хүн ам зүйн бүлэг, хэл, нөхцөл байдлын дагуух заавруудыг туршиж үзээд дараа нь хэвшмэл ойлголт, хасалт эсвэл жигд бус алдааны хэв маягийн гаралтыг хянах явдал юм. Хөгжүүлэгчид мөн хэрэглэгчид эсвэл багуудад хортой зан үйлийг мэдээлэх арга замыг бий болгох хэрэгтэй, учир нь систем нь ерөнхийдөө хүчтэй харагдаж болох ч тодорхой бүлгүүдийг байнга алдаатай байлгаж чаддаг.
Хөгжүүлэгчид хиймэл оюун ухааныг ашиглахдаа ямар аюулгүй байдлын эрсдэлийг анхаарч үзэх хэрэгтэй вэ?
Бүтээлч хиймэл оюун ухаан нь шуурхай тарилга, аюултай багаж хэрэгслийг ашиглах, контекстээр дамжуулан өгөгдөл алдагдах, автоматжуулсан үйлдлүүдийг буруугаар ашиглах зэрэг шинэ халдлагын гадаргууг нэвтрүүлдэг. Хөгжүүлэгчид найдваргүй оролтыг ариутгаж, багаж хэрэгслийн зөвшөөрлийг хязгаарлаж, файл болон сүлжээний хандалтыг хязгаарлаж, буруу ашиглалтын хэв маягийг хянах ёстой. Аюулгүй байдал нь зөвхөн интерфэйсийн тухай биш; энэ нь загварын эргэн тойрон дахь бүх ажлын урсгалд хамаарна.
Бүтээлч хиймэл оюун ухаанаар бүтээхэд ил тод байдал яагаад чухал вэ?
Хэрэглэгчид хиймэл оюун ухаан хэзээ оролцдог, юу хийж чадах, хязгаар нь хаана байгааг тодорхой мэдэж байх ёстой. Сайн ил тод байдалд хиймэл оюун ухаанаар үүсгэгдсэн эсвэл хиймэл оюун ухааны тусламжтайгаар хийгдсэн гэх мэт шошго, энгийн тайлбар, хүний дэмжлэг авах тодорхой замууд багтаж болно. Иймэрхүү илэн далангүй байдал нь бүтээгдэхүүнийг сулруулахгүй; энэ нь хэрэглэгчдэд итгэлцлийг тохируулж, илүү сайн шийдвэр гаргахад тусалдаг.
Хиймэл оюун ухааны онцлог нь хор хөнөөл учруулах эсвэл ямар нэгэн зүйл буруу болоход хэн хариуцлага хүлээх вэ?
Загвар нь хариултыг гаргаж байсан ч хөгжүүлэгчид болон бүтээгдэхүүний багууд үр дүнг эзэмшсээр байна. Энэ нь байршуулалтыг батлах, ослыг зохицуулах, буцаах, хянах, хэрэглэгчийн харилцаа холбоог хариуцах тодорхой үүрэг хариуцлагатай байх ёстой гэсэн үг юм. "Загвар шийдсэн" гэдэг нь хангалтгүй, учир нь хариуцлага нь системийг зохион бүтээж, эхлүүлсэн хүмүүст үлдэх ёстой.
Хариуцлагатай генератив хиймэл оюун ухааны хөгжүүлэлт нээлтийн дараа ямар харагддаг вэ?
Хариуцлагатай хөгжүүлэлт нь хувилбарыг гаргасны дараа хяналт, санал хүсэлт, хянан үзэх, залруулах замаар үргэлжилдэг. Хүчтэй системүүд нь аудит хийх боломжтой, тасалдах боломжтой, сэргээгдэх боломжтой бөгөөд хиймэл оюун ухаан ажиллахаа больсон үед нөөц замтайгаар бүтээгдсэн байдаг. Зорилго нь төгс төгөлдөр биш; энэ нь бодит ертөнцийн асуудлууд гарч ирэх үед аюулгүйгээр шалгаж, сайжруулж, тохируулж болох зүйлийг бүтээх явдал юм.
Лавлагаа
-
Үндэсний Стандарт ба Технологийн Хүрээлэн (NIST) - NIST GenAI Профайл - nvlpubs.nist.gov
-
OWASP - LLM өргөдөл гаргагчдын шилдэг 10 OWASP - owasp.org
-
Мэдээллийн комиссарын алба (ICO) - ICO-ийн генератив хиймэл оюун ухаанд тавих найман асуулт - ico.org.uk