in

Bias Algoritma

Apa yang terjadi kalau kejahatan bisa diprediksi sebelum terjadi? Algoritma bisa mengalami bias.

Film “Minority Report” (2002) menceritakan mesin PreCogs, yang bisa memprediksi kejahatan yang akan terjadi. Tugas polisi dan kehakiman lebih mudah. PreCogs mengolah data, dari statistik dan prediksi lain, lalu menentukan siapa yang “akan” bersalah. Kamu bisa disergap para polisi dengan tuntutan “melakukan kejahatan yang belum terjadi”. Sistem ini disebut PreCrime.

Persoalannya, Penguasa di film itu, bisa memanipulasi PreCogs, lalu terjadi bias sehingga menghasilkan keputusan-salah.

PreCogs, dalam film ini, dan seperti umumnya aplikasi untuk menganalisis data, bekerja berdasarkan algoritma.

Anderton, dalam film itu, membuktikan bahwa dirinya tidak terlibat pembunuhan, seperti yang dituduhkan melalui PreCogs, lalu dia berkata, “Kamu melihat dilema, bukan? Jika kamu tidak membunuhku, berarti PreCogs salah dan PreCrime berakhir. Jika kamu membunuhku, kamu bebas dari tuduhan, namun hal itu membuktikan bahwa sistem PreCrime berjalan. PreCogs benar. Jadi, apa yang akan kamu lakukan sekarang? Apa untungnya? Hanya satu pembunuhan lagi.”

Algoritma adalah serangkaian proses logika dan matematika dalam bentuk code, untuk menganalisis data yang terstruktur maupun bukan, yang hasilnya bisa dipakai untuk pengambilan keputusan.

Algoritma bergantung pada input dan data. Misalnya, saat kamu mencari “berita semarang” di Google, akan ada website yang ditampilkan. Ada prioritas berdasarkan: relevansi, waktu, keyword, frekuensi input dari pemakai, lokalitas, keunikan, update, dll.

Algoritma, berdasarkan ketersediaan data, bisa menyelesaikan persoalan (dari yang jawabannya “satu” sampai yang bersifat “penilaian), seperti: Siapa nama orang di foto ini? Apakah besok terjadi hujan di Jakarta? Bagaimana prospek ekonomi pemerintahan Trump di Amerika sebulan ke depan? Apa 10 kata yang paling disukai orang dalam pemasaran produk? Fitur smartphone apa yang paling ditunggu orang Indonesia? Apa nama ibukota Jawa Tengah?

Kalau kamu percaya pada primbon, misalnya, kamu sebenarnya mempercayai algoritma. Begitu mengetahui weton, katuranggan, dan ke mana rumah seseorang menghadap, kamu bisa mengatakan banyak hal tentang orang itu, tentu saja, berdasarkan algoritma primbon tadi.

Algoritma tidak seragam, dan tidak sepenuhnya “netral”.

Bergantung pada bagaimana programmer dan pembuatnya. Facebook dan Google, selalu memperbaiki algoritma mereka. Iklan Facebook bergaya click-bait, jangan kecewa kalau kamu membuka ternyata nggak relevan dengan isinya. Atau begitu kamu aktifkan info biodata, maka tawaran iklan yang relevan dengan biodata, akan gencar mengisi Beranda Facebook. Google dulu bisa diakali dengan metode black hat, tetapi sekarang dengan algoritma Hummingbird, Google telah memasukkan “faktor” baru: lokalitas, keunikan, dan ketersediaan jawaban relevan. Semakin sulit diakali, semakin ramah-iklan.

Benar, algoritma bisa diakali. Bisa menimbulkan bias. Kalau saya memasukkan tempat-singgah “London High School” (saya belum pernah ke London), maka saya akan mendapatkan tawaran “Orang yang Mungkin Anda Kenal” dari London dan siapa yang pernah singgah di situ. Itu sebabnya saya selalu mematikan semua “Aplikasi yang digunakan orang lain” di pengaturan akun Facebook.

Yang menyenangkan, mengakali algoritma ini bisa menjadi trik marketing. Misalnya, saya punya produk hijab modern (saya tidak jualan hijab), lalu saya bikin 9 akun fiktif di Facebook, berisi data-data yang relevan dengan “persona” calon pembeli produk ini. Biodata ini berpeluang 98% akan mendapat permintaan pertemanan dari para calon pembeli potensial. Setidaknya, saran “Orang yang Mungkin Anda Kenal” akan cocok dengan produk saya. Hanya dengan mengakali biodata, 5000 calon pembeli bisa didapatkan. Tentukan “persona” calon pembeli lalu ciptakan “super-profile” di akun fiktif, maka pemasaran produk akan lebih mudah mengkonversi teman menjadi pembeli.

Cathy O’ Neil, dalam buku “Algorithm: Weapon of Math Destruction” menjelaskan, pada prinsipnya, algorithm mengulangi praktek, pola (pattern) di masa lalu. Algoritma mengotomatisasi “status quo”. Algoritma tidak sepenuhnya “obyektif” dan “ilmiah”. Dia bisa bekerja berdasarkan pesanan pengiklan. Algoritma bisa menjadi “opini” yang terpasang di code. Algoritma lekat dengan trik marketing.

Menakutkan, tatkala hasil algoritma dianggap sebagai “keputusan obyektif”, sementara di sisi lain, source code yang berisi algoritma ini tidak mungkin di-share ke publik. Kalau di-share, tentu bisa diakali sepenuhnya dan ketahuan bagaimana cara mesin itu (misalnya: Google) mengambil keputusan. Hancur sudah ratusan ribu tutorial “menjadi nomor satu di Google” dan “cara dapat uang dari AdSense”. Sama halnya ketika Google mengubah algoritma mereka, atau Facebook, pasar langsung berubah. Termasuk pasar black hat. Kalau source-code penarikan nomor togel Hongkong dan Singapura di-share, bandar akan tutup dalam waktu singkat.

Singkatnya, orang tahu cara-kerja algoritma, tetapi, tidak tahu bagaimana sesungguhnya algoritma yang digunakan di Google itu bekerja. Google hanyalah contoh kecil. Sama seperti matematika, kita tahu logikanya selalu benar, namun nggak mau mengurus bagaimana rumus ini dipakai. Mereka tahu “matematika itu logis” tetapi tidak mau berurusan dengan rumus matematika.

Kalau terjadi bias dalam algoritma, keputusan bisa mengejutkan. Bank menerima kredit berdasarkan algoritma. Komputer yang memutuskan. Sebuah kawasan dinyatakan memiliki angka kriminalitas atau berdaya-beli tinggi, juga berdasarkan cara-kerja yang hampir sama. Algoritma mengandung bias. Kalau bias dibiarkan, akan terjadi keputusan yang tidak tepat.

Sekarang, di era big data, penambangan data (data mining) terjadi setiap saat. Banyak ketersediaan data dan sering dipakai untuk pengambilan keputusan. Desain dan peluncuran produk juga berpijak pada data. Ada survey yang mendahului, tentang selera dan daya-beli konsumen. Inakurasi data sebisa mungkin dikurangi agar pengambilan keputusan tidak merugikan.

Pada tahun 2009, artikel Ken Anderson, “Ethnographic Research: a Key to Strategy” di Harvard Business Review berbicara tentang etnografi. Perusahaan Intel bisa menganalisis pola beli terbaru dan survey konsumen untuk mendapatkan data bagi produk mereka. Namun orang sering tidak bisa mengartikulaiskan (menyatakan) apa yang sebenarnya mereka mau. Dengan memahami bagaimana orang hidup, para peneliti menemukan tren yang menginformasikan strategi ke depan perusahaan itu.

Etnografi berurusan dengan data yang tidak termasukkan dalam survey, misalnya: Bagaimana cara konsumen ini hidup? Smartphone apa yang sudah mereka pakai sejak SD? Fitur apa yang paling mereka inginkan di smartphone?

Tahun 2017, Tricia Wang bercerita di TED tentang pentingnya etnografi teknologi. Wang punya pekerjaan keren: meriset apa yang tidak terjangkau oleh riset perusahaan, tentang bagaimana para konsumen hidup.

Nokia pernah “mengabaikan” temuan etnografi teknologi. Nokia tidak percaya kalau pasar China menginginkan ponsel yang bisa berfungsi sebagai komputer.

Survey (dengan pengisian angket) itu tidak memadai. Sama seperti big data. Butuh perimbangan dari etnografi, agar dapat mengetahui, apa sebenarnya yang sangat diinginkan konsumen. Caranya: lihat bagaimana para konsumen ini hidup.

Apa yang sekarang terjadi, mungkin tidak demikian. Kita sering berhadapan dengan berita click-bait: “berdasarkan fakta” (padahal survei kecil), “keinginan konsumen” (sebenarnya hanya konsumen produk tertentu di sebuah negara-bagian di Amerika), “jenis content Instagram yang paling menaikkan follower” (hanya agar kamu memakai hashtag dan aplikasi dia), 10 teman yang sehobi denganmu (padahal di balik quiz iseng ini, ada aplikasi yang menambang data Facebook kamu), dan 7 tempat wisata paling keren (nggak jelas, “keren” di sini faktornya apa saja), dan “elektabilitas calon ini sekian persen” (biasanya nggak netral).

Jika kamu ingin ikutan “rewire” (menata-ulang) internet dan merindukan data yang bermanfaat, pertimbangkan lagi selama menulis-ulang data dan membaca.

Algoritma dan “pesan iklan” apa yang ada di baliknya? Dari mana data dan angka ini berasal? Bias apa yang terdapat dalam informasi ini?

Algoritma bisa dipelajari, serta membantu kemanusiaan menjadi lebih baik. Bersama. [dm]

What do you think?