
Saat ini, perkembangan AI dan teknologi digital banyak digunakan di lingkup korporasi karena dinilai mampu mempercepat proses bisnis hingga mempermudah akses layanan publik. Namun, menurut Dwi, kemajuan teknologi ini tidak dapat dipandang sebagai sesuatu yang netral secara sosial.
AI, kata Dwi, memiliki sejarah bias yang berasal dari ketimpangan di masyarakat dan tercermin dalam data pelatihannya. Selain itu, AI dinilai kekurangan representasi data perempuan (representational bias), serta mengandung proxy bias karena variabel dalam model AI secara tidak langsung bisa menunjukkan jenis kelamin pengguna.
“AI memang tidak serta-merta diskriminatif, tetapi ia merefleksikan kondisi sosial yang sudah bias berdasarkan data yang ia terima,” ujarnya sebagaimana dikutip dari keterangan tertulis di laman BRIN, Sabtu (7/6/2025).
Ia mencontohkan temuan komite independen yang dibentuk Dewan Eropa pada 2019, yang mengidentifikasi setidaknya enam pola diskriminasi dalam AI. Salah satunya adalah sejarah bias, yakni bias akibat ketimpangan yang telah berlangsung lama di masyarakat yang masuk kedalam pelatihan data AI.
Dwi juga menyebut studi internal Amazon yang menunjukkan bahwa model AI dalam proses seleksi karyawan baru secara tidak sengaja lebih menyukai kandidat laki-laki. Ini terjadi karena mayoritas pelamar selama bertahun-tahun memang laki-laki.
Tidak hanya dalam rekrutmen, bias juga muncul dalam representasi perempuan di sektor teknologi secara keseluruhan.
Dwi mengatakan studi terbaru UN Women menunjukkan bahwa kesenjangan ini bersifat global. Perempuan masih menghadapi keterbatasan akses, representasi, dan partisipasi dalam dunia digital, termasuk di bidang AI.
“Kesenjangan digital berbasis gender ini tidak hanya terjadi di negara berkembang,” ujarnya.
Diperkirakan pada 2025, sekitar 75 persen pekerjaan akan terkait bidang STEM (Science, Technology, Engineering, Mathematics), termasuk pengembangan AI. Namun, secara global, perempuan hanya mengisi sekitar 22 persen posisi di bidang tersebut.
Studi terhadap 133 sistem AI di berbagai industri juga menunjukkan bahwa 44 persen mengandung bias gender, sementara 25 persen bahkan mengandung bias ganda: gender dan ras.
Selain dalam penggunaan teknologi, perempuan juga mengalami dampak negatif secara langsung seperti kekerasan daring.
“38 persen perempuan pernah menjadi korban dan 85 persen pernah menyaksikan kekerasan terhadap perempuan di ruang digital,” kata Dwi.
Stereotipe gender dalam keterampilan teknis turut memengaruhi desain produk digital yang tidak inklusif. Kebutuhan perempuan kerap tidak dipertimbangkan dalam desain dan pemasaran produk digital.
Dari sisi partisipasi dalam pengembangan teknologi, Dwi menyebut data komunitas pengembang menunjukkan ketimpangan signifikan. Jumlah perempuan hanya 78 dibandingkan 922 laki-laki. Ini menjadi salah satu alasan mengapa banyak sistem AI tidak sensitif terhadap kebutuhan perempuan.