Logo Zephyrnet

UU AI UE – Apa Implikasinya Terhadap Perbankan dan Fintech?

Tanggal:

Pemungutan suara terakhir Parlemen Eropa kemarin mengenai UU AI, yang akan mulai berlaku pada bulan Mei, menandai legislasi AI yang paling komprehensif di dunia. Sama seperti GDPR, hal ini akan mempunyai dampak global di luar UE.

Undang-Undang AI memberikan kerangka kerja komprehensif untuk memastikan pengembangan AI yang dapat dipercaya dan penggunaan alat AI yang bertanggung jawab, khususnya transparansi, bias, pelanggaran privasi, risiko keamanan, dan potensi penyebaran informasi yang salah.
sebagai pengawasan manusia dalam pengembangan teknologi AI. 

Dalam pedoman tersebut, digunakan tujuh prinsip etika AI yang tidak mengikat, yang dimaksudkan untuk membantu memastikan bahwa AI dapat dipercaya dan sehat secara etika. Prinsip-prinsip tersebut antara lain

– agen dan pengawasan manusia;

– ketahanan dan keamanan teknis;

– privasi dan tata kelola data;

– transparansi;

– keberagaman, non-diskriminasi dan keadilan;

– kesejahteraan dan akuntabilitas masyarakat dan lingkungan.

Dengan pendekatan berbasis risiko yang berjenjang, sistem AI yang berisiko tinggi di sektor-sektor seperti perbankan dan layanan kesehatan akan menghadapi kewajiban hukum yang ketat dan hukuman yang cukup besar jika tidak mematuhinya. Undang-undang tersebut mengkategorikan AI ke dalam empat tingkatan risiko, masing-masing dari minimal hingga tidak dapat diterima
dengan meningkatnya kewajiban.

Undang-Undang AI UE melarang pengembangan, penerapan, dan penggunaan sistem AI tertentu, termasuk:

– Sistem penilaian sosial

– Rekayasa sosial

– Identifikasi biometrik jarak jauh secara real-time di ruang publik

– Pembuatan profil dan prediksi perilaku berbasis AI

– Pengikisan dan augmentasi gambar wajah untuk memperluas database

– Teknik manipulatif berbasis AI melemahkan otonomi dan kebebasan memilih 

Tidak semua sistem AI menimbulkan risiko yang signifikan, terutama jika sistem tersebut tidak mempengaruhi pengambilan keputusan secara signifikan atau secara signifikan merugikan kepentingan hukum yang dilindungi. Sistem AI dengan dampak minimal terhadap pengambilan keputusan atau risiko terhadap kepentingan hukum, seperti kinerja
tugas-tugas yang sempit atau meningkatkan aktivitas manusia, dianggap berisiko rendah. Dokumentasi dan registrasi untuk sistem ini ditekankan demi transparansi. Beberapa sistem AI yang berisiko tinggi mencakup beberapa sektor, termasuk perbankan dan asuransi (serta medis
perangkat, SDM, pendidikan, dan lainnya).

Persyaratan wajib untuk sistem AI berisiko tinggi bertujuan untuk memastikan kepercayaan dan memitigasi risiko, dengan mempertimbangkan tujuan dan konteks penggunaannya. Penting bagi perusahaan jasa keuangan dan fintech, terutama yang menangani data pelanggan, untuk menjaganya
berikut ini persyaratan untuk sistem AI berisiko tinggi:

– Manajemen risiko yang berkelanjutan dan berulang untuk AI berisiko tinggi, dengan fokus pada kesehatan, keselamatan, dan hak, memerlukan pembaruan, dokumentasi, dan keterlibatan pemangku kepentingan.

– Melakukan penilaian dampak terhadap hak-hak dasar

– tata kelola yang ketat untuk menghindari diskriminasi dan memastikan kepatuhan terhadap undang-undang perlindungan data

– Kumpulan data pelatihan dan pengujian harus representatif, akurat, dan bebas bias untuk mencegah dampak buruk terhadap kesehatan, keselamatan, dan hak-hak dasar

– Memastikan pengawasan dan transparansi manusia

– Memastikan deteksi dan koreksi bias

– dokumentasi yang komprehensif untuk ketertelusuran, verifikasi kepatuhan, pemantauan operasional, dan pengawasan pasca-pasar, termasuk karakteristik sistem, algoritme, proses data, dan manajemen risiko dalam dokumen teknis yang jelas dan terkini, ditambah
pencatatan peristiwa otomatis sepanjang masa pakai AI.

– Sistem AI yang berisiko tinggi harus bekerja secara konsisten sepanjang siklus hidupnya dan memenuhi tingkat akurasi, ketahanan, dan keamanan siber yang sesuai

Dunia usaha harus memprioritaskan pengembangan AI yang Bertanggung Jawab untuk mematuhi peraturan terkini dan mencegah hukuman berat bagi ketidakpatuhan. Berikut adalah beberapa langkah yang harus dimulai oleh perusahaan untuk memastikan kepatuhan:

  1. Menetapkan tata kelola AI sejak dini, memastikan keterlibatan dan dukungan seluruh pemangku kepentingan
  2. Mendidik dan melatih tim Anda dalam prinsip etika AI. Mengelola risiko AI memerlukan keterampilan baru, mulai dari analisis data hingga keamanan/privasi, hukum, dan banyak lagi.
  3. Lakukan audit AI organisasi (dan bukan hanya teknik), tetapi juga hukum, SDM, dll untuk mendapatkan gambaran lengkap tentang penggunaan AI dalam organisasi
  4. Periksa kepatuhan yang berkelanjutan
  5. Pastikan penyedia SaaS Anda menggunakan AI secara bertanggung jawab
  6. Pastikan transparansi, pemahaman, dan penjelasan model yang digunakan dalam bisnis Anda

Meskipun hal ini merupakan sebuah langkah ke arah yang benar, namun banyak hal yang belum terselesaikan, dan UU AI akan berdampak besar pada masa depan organisasi, baik yang tradisional maupun yang berpusat pada AI. Saat kita melewati era di mana dampak AI semakin meningkat
Secara mendalam, penyelarasan dengan standar etika dan persyaratan peraturan bukan hanya masalah kepatuhan hukum namun merupakan keharusan strategis. Dengan berfokus pada AI yang Bertanggung Jawab, dunia usaha tidak hanya melindungi diri mereka dari denda yang besar namun juga memposisikan diri mereka sendiri
sebagai entitas yang dapat dipercaya dan berpikiran maju dalam lanskap digital yang berkembang pesat. Perjalanan menuju AI yang Bertanggung Jawab adalah jalur yang menantang namun sangat diperlukan yang menjanjikan untuk mendefinisikan kembali masa depan teknologi, tata kelola, dan kesejahteraan masyarakat.

tempat_img

Intelijen Terbaru

tempat_img