top of page
  • Writer's pictureGJC Team

Bagaimana organisasi boleh menguruskan risiko yang berkaitan dengan Kepintaran Buatan (AI)?

Updated: 29 Jun 2023


Lights going to the sky
Lights

Semua organisasi yang membangun dan menggunakan Kecerdasan Buatan (AI) perlu menguruskan risiko yang berkaitan dengannya. Ini termasuk entiti awam, swasta dan bukan kerajaan.


Walaupun terdapat banyak rangka kerja pengurusan risiko, proses dan alatan sudah tersedia – risiko yang ditimbulkan oleh sistem AI boleh dikatakan unik. Ini adalah kerana risiko yang berkaitan dengan AI boleh berubah dari semasa ke semasa, kerap kali kompleks, sememangnya sosio-teknikal, dan boleh menyebabkan hasil yang tidak saksama atau tidak diingini untuk individu dan masyarakat.


Kerajaan Amerika Syarikat NIST (Institut Piawaian dan Teknologi Kebangsaan) telah membangunkan rangka kerja untuk membantu mengurus risiko yang berkaitan dengan kecerdasan buatan (AI). Ini dipanggil Rangka Kerja Pengurusan Risiko AI NIST (AI RMF). Ini dicipta hasil daripada Akta Inisiatif Kepintaran Buatan Kebangsaan AS 2020.


NIST AI RMF menyediakanrujukan asas untuk mana-mana organisasi (termasuk yang berpangkalan di luar AS) untukmenguruskan risiko yang berkaitan dengan AI.


RMF AI adalah sukarela dan bertujuan untuk meningkatkan keupayaan untuk menggabungkan kebolehpercayaan dalam reka bentuk, pembangunan, penggunaan dan penilaian produk, perkhidmatan AI , dan sistem. AI RMF telah dibangunkan melalui proses kerjasama antara NIST, industri, institusi lain dan orang ramai.


RMF AI dibahagikan kepada dua bahagian dengan Bahagian 1 ditumpu pada cara organisasi boleh merangka risiko yang berkaitan dengan AI. Ia kemudian menyerlahkan cara risiko dan kebolehpercayaan AI dianalisis, dan ciri sistem AI yang boleh dipercayai seperti kebolehpercayaan kesahihan, keselamatan, keselamatan, daya tahan, akauntabiliti, ketelusan, 'kebolehjelasan', kawalan privasi, keadilan dan pengurusan berat sebelah.


Bahagian 2 AI RMF menerangkan empat fungsi khusus yang diperlukan untuk membantu organisasi menangani risiko sistem AI dalam amalan. Fungsi ini termasuk (1) MEMERINTAH (2) PETA (3) UKUR dan (4) URUS, semua dengan kategori dan subkategori selanjutnya. Fungsi GOVERN digunakan melalui semua peringkat proses dan prosedur pengurusan risiko AI dengan fungsi MAP, MEASURE dan MANAGE digunakan dalam konteks dan peringkat tertentu kitaran hayat AI.


NIST telah membangunkan sumber tambahan termasuk NIST AI RMF Playbook , AI Video Penjelasan RMF, sebuah Pelan Hala Tuju RMF AI dan AI RMF Crosswalk.


Pada Mac 2023 NIST turut melancarkan Pusat Sumber AI yang Boleh Dipercayai dan Bertanggungjawab , yang bertujuan untuk menyokong organisasi yang sejajar dengan AI RMF.


Organisasi yang membangun dan/atau menggunakan AI mungkin mendapati NIST AI RMF dan sumber tambahannya membantu dalam pengurusan berterusan risiko AI mereka.




Lihat pautan berguna:





Comments


bottom of page