top of page
  • Gambar penulisGJC Team

Bagaimana organisasi mengelola risiko yang terkait dengan Kecerdasan Buatan (AI)?

Diperbarui: 29 Jun 2023


Lights going to the sky
Lights

Semua organisasi yang mengembangkan dan menerapkan Kecerdasan Buatan (AI) harus mengelola risiko yang terkait dengannya. Ini termasuk entitas publik, swasta dan non-pemerintah.


Meskipun ada banyak kerangka kerja, proses, dan alat manajemen risiko yang sudah tersedia – risiko yang ditimbulkan oleh sistem AI bisa dibilang unik. Hal ini karena risiko yang terkait dengan AI dapat berubah dari waktu ke waktu, seringkali kompleks, bersifat sosio-teknis, dan dapat menyebabkan hasil yang tidak adil atau tidak diinginkan bagi individu dan masyarakat.


Pemerintah Amerika Serikat NIST (Institut Nasional untuk Standar dan Teknologi) telah mengembangkan kerangka kerja untuk membantu mengelola risiko yang terkait dengan kecerdasan buatan (AI). Ini disebut Kerangka Kerja Manajemen Risiko NIST AI (AI RMF). Ini dibuat sebagai hasil dari Undang-Undang Inisiatif Kecerdasan Buatan Nasional AS tahun 2020.


RMF AI NIST memberikan referensi dasar yang berguna untuk organisasi mana pun (termasuk yang berbasis di luar AS) untuk mengelola risiko yang terkait dengan AI.


RMF AI bersifat sukarela dan dimaksudkan untuk meningkatkan kemampuan menggabungkan kepercayaan dalam desain, pengembangan, penggunaan, dan evaluasi produk, layanan AI , dan sistem. AI RMF dikembangkan melalui proses kolaboratif antara NIST, industri, institusi lain, dan publik.


RMF AI dibagi menjadi dua bagian dengan Bagian 1 berfokus pada bagaimana organisasi dapat membingkai risiko terkait AI. Ini kemudian menyoroti bagaimana risiko AI dan kepercayaan dianalisis, dan karakteristik sistem AI yang dapat dipercaya seperti keandalan validitas, keselamatan, keamanan, ketahanan, akuntabilitas, transparansi, 'dapat dijelaskan', kontrol privasi, keadilan, dan pengelolaan bias.


Bagian 2 AI RMF menjelaskan empat fungsi khusus yang diperlukan untuk membantu organisasi menangani risiko sistem AI dalam praktiknya. Fungsi ini mencakup (1) MENATA KELOLA (2) MAP (3) MEASURE dan (4) KELOLA, semuanya dengan kategori dan subkategori lebih lanjut. Fungsi GOVERN diterapkan melalui semua tahapan proses dan prosedur manajemen risiko AI dengan fungsi MAP, MEASURE, dan MANAGE yang diterapkan dalam konteks dan tahapan tertentu dari siklus hidup AI.


NIST telah mengembangkan referensi tambahan termasuk Playbook NIST AI RMF , AI Video Penjelasan RMF, sebuah Roadmap AI RMF, dan AI RMF Crosswalk.


Pada bulan Maret 2023, NIST juga meluncurkan Pusat Sumber Daya AI yang Tepercaya dan Bertanggung Jawab , yang dimaksudkan untuk mendukung organisasi yang selaras dengan AI RMF.


Organisasi yang mengembangkan dan/atau menerapkan AI dapat menganggap RMF AI NIST dan sumber daya tambahannya membantu dalam pengelolaan risiko AI yang berkelanjutan.




Lihat tautan bermanfaat:





Comments


bottom of page