Skip to main content

Bayangkan satu hari, anda terbangun dan mendapati bahawa keputusan tentang apa yang betul dan salah dalam masyarakat kita tidak lagi dibuat oleh manusia, tetapi oleh komputer. Kedengaran seperti filem sains fiksyen, bukan? Tapi percaya atau tidak, kita sedang bergerak ke arah itu, walaupun perlahan-lahan.

Kecerdasan Buatan, atau AI, bukan sekadar alat untuk memainkan catur atau mencadangkan filem yang mungkin anda suka. Hari ini, AI semakin digunakan untuk membuat keputusan yang dahulunya hanya dibuat oleh manusia termasuk keputusan yang melibatkan pertimbangan moral.

Tapi tunggu dulu, apa sebenarnya yang kita maksudkan dengan “AI sebagai hakim moral”? Bayangkan satu sistem komputer yang boleh memutuskan sama ada seseorang patut dibebaskan dari penjara, atau sama ada seorang pesakit patut menerima organ transplan terlebih dahulu. Sistem seperti ini sudah wujud dan semakin banyak digunakan.

Kedengarannya menarik dan menakutkan pada masa yang sama, bukan? Di satu pihak, kita mungkin berfikir, “Hebat! Akhirnya ada cara untuk membuat keputusan tanpa emosi atau prejudis manusia.” Tapi di pihak lain, kita mungkin tertanya-tanya, “Tunggu sekejap, adakah kita benar-benar mahu menyerahkan keputusan sebegitu penting kepada mesin?”

Dalam artikel ini, kita akan meneroka dunia AI sebagai hakim moral. Kita akan lihat mengapa idea ini semakin popular, apa kelebihannya, dan sudah tentu, apa risiko dan cabarannya. Kita juga akan fikir tentang apa yang ini bermakna untuk masa depan masyarakat kita.

Jadi, sama ada anda seorang pakar teknologi atau hanya seseorang yang ingin tahu lebih lanjut tentang bagaimana teknologi membentuk dunia kita, artikel ini untuk anda. Mari kita selami dunia di mana algoritma mungkin suatu hari nanti menentukan apa yang benar dan salah.

Bagaimana Kita Sampai Ke Sini?

Sebelum kita terlalu jauh, mari kita lihat sedikit sejarah. Idea menggunakan mesin untuk membuat keputusan bukan perkara baru. Sejak zaman komputer pertama, manusia telah bermimpi tentang mesin yang boleh berfikir seperti kita.

Pada tahun 1950-an, seorang ahli matematik bernama Alan Turing mencadangkan ujian yang kini dikenali sebagai “Ujian Turing”. Ideanya simple: jika sebuah mesin boleh berbual dengan manusia tanpa manusia itu sedar ia sedang bercakap dengan mesin, maka mesin itu boleh dianggap “pintar”.

Sejak itu, AI telah berkembang pesat. Dari program catur yang boleh mengalahkan juara dunia, hingga ke sistem yang boleh mendiagnosis penyakit lebih tepat daripada doktor manusia. Tetapi menggunakan AI untuk membuat keputusan moral? Itu satu langkah yang besar.

Bayangkan senario ini: Anda sedang memandu kereta autonomi (ya, kereta yang memandu sendiri) dan tiba-tiba seorang pejalan kaki melompat ke jalan. Kereta anda perlu membuat keputusan dalam masa yang pantas, patut ia membelok dan mungkin mencederakan anda, atau terus ke hadapan dan mungkin mencederakan pejalan kaki? Inilah jenis keputusan moral yang mungkin perlu dibuat oleh AI pada masa hadapan.

Hari ini, kita sudah mula melihat AI digunakan dalam pelbagai situasi yang melibatkan pertimbangan moral:

  1. Dalam sistem keadilan, ada algoritma yang digunakan untuk menilai risiko seseorang akan mengulangi jenayah.
  2. Di hospital, sistem AI membantu menentukan pesakit mana yang patut menerima organ transplan terlebih dahulu.
  3. Dalam peperangan, ada “senjata pintar” yang boleh membuat keputusan sendiri tentang siapa yang menjadi sasaran.

Semua ini mungkin kedengaran seperti perkara yang baik. Lebih cepat, lebih efisien, kurang bias manusia, kan? Tapi seperti kebanyakan perkara dalam hidup, ia tidak semudah itu. Ada banyak cabaran dan risiko yang perlu kita fikirkan.

Jadi, apakah sebenarnya kelebihan menggunakan AI sebagai hakim moral? Dan apa pula cabarannya? Itulah yang akan kita terokai seterusnya.

Kenapa AI Boleh Jadi Hakim Moral Yang Baik?

Okey, sekarang kita sudah faham sedikit tentang bagaimana AI sampai ke tahap ini. Mari kita lihat mengapa sesetengah orang fikir AI boleh jadi hakim moral yang baik. Ada beberapa kelebihan yang cukup menarik:

  1. Konsisten Sepanjang Masa Bayangkan anda bekerja 24 jam sehari, 7 hari seminggu, tanpa cuti atau waktu rehat. Mesti penat, kan? Tapi AI boleh buat begitu tanpa rasa penat atau bosan. Ini bermakna AI boleh membuat keputusan dengan konsisten, tak kira pukul berapa atau hari apa. Contohnya, dalam sistem kehakiman, seorang hakim manusia mungkin membuat keputusan berbeza pada awal pagi berbanding lewat petang kerana keletihan. AI tidak ada masalah ini.
  2. Memproses Banyak Data dengan Pantas Otak kita memang hebat, tapi ada hadnya. AI pula boleh memproses jumlah data yang sangat besar dalam masa yang singkat. Bayangkan anda perlu membuat keputusan tentang bantuan kewangan untuk ribuan orang. AI boleh analisis semua maklumat tentang pendapatan, perbelanjaan, dan keperluan setiap orang dalam masa beberapa saat sahaja.
  3. Tidak Ada Emosi atau Bias Peribadi Kita semua ada bias, walaupun kita cuba untuk adil. Mungkin kita lebih suka orang yang senyum, atau tak suka orang yang pakai baju warna tertentu. AI tidak ada masalah ini. Dalam temu duga kerja misalnya, AI boleh menilai calon berdasarkan kriteria objektif sahaja, tanpa dipengaruhi oleh penampilan atau personaliti calon.
  4. Boleh Pertimbangkan Banyak Faktor Sekaligus Otak kita biasanya fokus pada beberapa faktor utama bila buat keputusan. AI pula boleh pertimbangkan berpuluh atau beratus faktor sekaligus. Contohnya, dalam kes perubatan, AI boleh analisis sejarah perubatan pesakit, gaya hidup, genetik, dan banyak lagi faktor untuk cadangkan rawatan yang paling sesuai.
  5. Sentiasa ‘Belajar’ dan Dikemaskini Manusia memang boleh belajar, tapi AI boleh ‘belajar’ dengan lebih cepat. Setiap kali ada data baru atau penyelidikan baru, AI boleh segera dikemaskini. Bayangkan ada undang-undang baru diperkenalkan. AI boleh segera mengambil kira undang-undang ini dalam semua keputusan seterusnya, tanpa perlu masa untuk ‘biasakan diri’ seperti manusia.

Nampak menarik, bukan? Dengan semua kelebihan ini, mungkin ada di antara kita yang fikir, “Wah, patutnya kita serahkan semua keputusan moral pada AI je!”

Tapi, seperti yang kita semua tahu, setiap cerita ada dua belah. AI memang ada banyak kelebihan, tapi ia juga datang dengan cabaran dan risiko tersendiri. Apa agaknya risiko-risiko ini? Itulah yang akan kita terokai dalam bahagian seterusnya.

Tapi Tunggu Dulu, Ada Masalahnya…

Okay, kita dah tengok semua perkara hebat tentang AI sebagai hakim moral. Tapi seperti yang nenek saya selalu kata, “Kalau ada manis, mesti ada masamnya.” Jadi, apa pulak cabaran dan risiko bila kita bagi AI kuasa untuk tentukan apa yang betul dan salah?

  1. AI Tak Faham Konteks Macam Manusia AI memang pandai proses data, tapi ia tak pandai faham konteks macam kita. Bayangkan kes di mahkamah di mana seseorang mencuri makanan sebab lapar. Manusia boleh faham situasi ini dan mungkin beri hukuman yang ringan. Tapi AI? Ia mungkin hanya nampak “kecurian” dan bagi hukuman standard tanpa pertimbangkan keadaan.
  2. Bias Masih Boleh Wujud Kita dah cakap yang AI tak ada bias peribadi, betul? Tapi ada satu masalah besar: AI ‘belajar’ dari data yang kita bagi. Kalau data tu sendiri dah ada bias, AI pun akan pikul bias yang sama. Contohnya, kalau kita guna AI untuk pilih calon kerja berdasarkan data pekerja lama, dan kebanyakan pekerja lama tu lelaki, AI mungkin akan lebih cenderung untuk pilih calon lelaki. Bukan sebab AI tu sendiri bias, tapi sebab data yang kita bagi ada bias.
  3. Nilai Moral Susah Nak ‘Dikodkan’ Cuba fikir: macam mana nak ajar seseorang tentang ‘keadilan’? Atau ‘belas kasihan’? Susah, kan? Sekarang bayangkan nak ajar benda tu pada komputer. Lagi susah! Nilai moral kita kompleks dan kadang-kadang bertentangan antara satu sama lain. Nak tulis semua ni dalam kod komputer? Memang mencabar gila!
  4. Siapa Yang Bertanggungjawab? Okay, katakan AI buat satu keputusan moral yang salah. Siapa yang kita nak salahkan? Programmer yang tulis kod? Syarikat yang guna AI tu? Atau AI tu sendiri? Bayangkan satu kereta autonomous terlibat dalam kemalangan. Siapa yang kita nak dakwa? Ini soalan yang masih diperdebatkan sampai sekarang.
  5. Hilang Sentuhan Kemanusiaan Ada sesetengah keputusan moral yang perlukan sentuhan kemanusiaan, belas kasihan, empati, atau kadang-kadang, pengampunan. AI mungkin struggle sikit dengan benda-benda macam ni. Fikir pasal kes mahkamah lagi. Kadang-kadang, hakim boleh bagi peluang kedua pada orang yang bersalah sebab nampak potensi untuk berubah. AI mungkin tak nampak “potensi” macam ni.
  6. Terlalu Bergantung pada Teknologi Kalau kita bagi AI buat semua keputusan moral, kita sendiri mungkin jadi ‘malas’ dari segi moral. Macam kalkulator la, senang sangat kita guna sampai kita sendiri dah lupa macam mana nak kira. Kita tak nak jadi masyarakat yang tak boleh beza antara betul dan salah tanpa rujuk komputer dulu, kan?

Nampak tak? Walaupun AI ada banyak kelebihan, ia juga datang dengan cabaran dan risiko yang besar. Jadi, macam mana kita nak seimbangkan semua ni? Apa yang dah berlaku bila AI dah mula digunakan untuk buat keputusan moral dalam dunia sebenar?

Itulah yang kita akan tengok dalam bahagian seterusnya, di mana kita akan lihat beberapa contoh sebenar penggunaan AI dalam membuat keputusan moral.

AI Sebagai Hakim Moral: Apa Yang Dah Berlaku Setakat Ni?

Okay, kita dah bincang pasal kelebihan dan cabaran AI sebagai hakim moral. Tapi apa yang sebenarnya dah berlaku bila AI digunakan dalam situasi sebenar? Jom kita tengok beberapa contoh yang menarik:

  1. COMPAS: AI dalam Sistem Keadilan Di Amerika Syarikat, ada satu sistem AI bernama COMPAS yang digunakan untuk menilai risiko seseorang pesalah akan mengulangi jenayah. Sistem ni digunakan untuk membantu hakim buat keputusan pasal hukuman dan ikat jamin. Tapi tau tak apa yang berlaku? Satu kajian oleh ProPublica pada 2016 mendapati yang sistem ni bias terhadap orang kulit hitam. Ia cenderung untuk silap ramal yang orang kulit hitam akan mengulangi jenayah berbanding orang kulit putih. Apa kita boleh belajar dari sini? Walaupun niat asal nak guna AI untuk kurangkan bias manusia, tapi kalau data yang digunakan tu sendiri dah ada bias, AI pun akan pikul bias yang sama.
  2. AI dalam Perubatan: Kes Google DeepMind Pada 2016, Google DeepMind bekerjasama dengan hospital-hospital di UK untuk guna AI dalam merawat pesakit buah pinggang. Idea dia, AI ni akan analisis data pesakit dan bagi amaran awal kalau ada risiko masalah buah pinggang yang serius. Tapi ada satu masalah besar: privasi data. Ramai orang risau sebab Google dapat akses pada data perubatan yang sensitif. Akhirnya, pihak berkuasa UK kata yang perkongsian data ni tak ikut undang-undang privasi. Apa yang kita boleh belajar? AI memang boleh bantu dalam bidang perubatan, tapi kita kena berhati-hati dengan isu privasi dan etika bila berurusan dengan data peribadi yang sensitif.
  3. AI dalam Pengambilan Pekerja: Kes Amazon Amazon pernah cuba guna AI untuk bantu pilih calon pekerja. Idea dia, AI akan tengok resume calon dan bagi skor berdasarkan corak yang dia jumpa dalam data pekerja yang berjaya di Amazon sebelum ni. Tapi apa yang berlaku? AI tu mula tunjuk bias terhadap wanita! Sebab kebanyakan pekerja teknologi Amazon sebelum ni lelaki, AI tu anggap “lelaki” sebagai ciri pekerja yang berjaya. Amazon akhirnya batalkan projek ni. Apa yang kita boleh belajar? AI boleh mewarisi dan memperkuatkan lagi bias yang sedia ada dalam masyarakat kalau kita tak berhati-hati.
  4. AI dalam Kereta Autonomi: Dilema Troli Okay, yang ni bukan kes sebenar, tapi ia satu eksperimen fikiran yang popular. Bayangkan kereta autonomi dalam situasi di mana ia kena pilih: langgar sekumpulan orang atau belok dan langgar satu orang? MIT ada buat satu kajian global bernama “Moral Machine” untuk tengok macam mana orang dari budaya berbeza buat pilihan moral dalam situasi macam ni. Hasil dia? Pilihan moral berbeza-beza mengikut budaya! Apa yang kita boleh belajar? Nilai moral tak semestinya universal. So, macam mana kita nak program AI untuk buat keputusan moral yang boleh diterima oleh semua orang?

Nampak tak? Penggunaan AI dalam membuat keputusan moral dalam dunia sebenar dah bawa pelbagai cabaran dan kontroversi. Ia bukan sekadar teori je, tapi dah mula beri kesan pada kehidupan sebenar orang ramai.

Jadi, apa pandangan kita tentang semua ni? Macam mana kita nak move forward dengan penggunaan AI dalam membuat keputusan moral? Itulah yang akan kita bincang dalam bahagian seterusnya.

Jadi, Apa Kita Nak Buat Dengan Semua Ni?

Okay, kita dah tengok kelebihan, cabaran, dan contoh sebenar AI sebagai hakim moral. Sekarang mari kita fikir: apa implikasi semua ni untuk masa depan kita? Dan lebih penting lagi, macam mana kita nak handle situasi ni?

Implikasi Etika

  1. Autonomi Manusia vs. Keputusan AI Bayangkan satu hari nanti, kebanyakan keputusan moral dalam hidup kita diambil alih oleh AI. Kita nak ke? Ada orang kata ini akan buat hidup kita lebih senang dan adil. Tapi ada juga yang risau kita akan hilang kemampuan untuk buat keputusan sendiri. Macam kalau kita terlalu bergantung pada GPS sampai tak tahu jalan sendiri. Sama jugak dengan keputusan moral kalau AI yang selalu buat keputusan untuk kita, kita sendiri mungkin jadi ‘buta moral’.
  2. Tanggungjawab dan Akauntabiliti Kalau AI buat satu keputusan moral yang salah, siapa yang kena tanggung? Programmer? Syarikat yang buat AI tu? Atau kita yang guna AI tu? Ini bukan soalan senang. Dalam sistem undang-undang kita sekarang, kita anggap manusia je yang boleh bertanggungjawab dari segi moral. Tapi kalau AI dah mula buat keputusan moral, kita kena fikir balik pasal konsep tanggungjawab ni.
  3. Privasi vs. Kebaikan Bersama Untuk AI buat keputusan moral yang bagus, ia perlukan banyak data. Tapi lebih banyak data yang kita bagi, makin kurang privasi yang kita ada. So macam mana nak seimbangkan? Kita nak AI yang lebih bagus, tapi kita pun tak nak korbankan privasi kita. Ini dilema yang kita kena selesaikan.

Cadangan untuk Masa Depan

Okay, jadi macam mana kita nak handle semua cabaran ni? Saya ada beberapa cadangan:

  1. Pendidikan dan Kesedaran Kita kena educate orang ramai pasal AI. Bukan sekadar pasal teknologi je, tapi juga implikasi etika dia. Sekolah, universiti, media, semua perlu main peranan untuk bagi orang faham apa yang berlaku.
  2. Ketelusan dalam Pembangunan AI Syarikat yang buat AI untuk keputusan moral kena lebih telus. Kena tunjuk macam mana AI tu buat keputusan, apa data yang digunakan, macam mana dia dilatih. Tak boleh ada ‘kotak hitam’ bila melibatkan keputusan moral.
  3. Penilaian Etika yang Berterusan Kita perlukan sistem untuk sentiasa nilai impak etika AI. Bukan setakat sekali je, tapi berterusan. Sebab teknologi dan masyarakat sentiasa berubah, so penilaian etika pun kena sentiasa up-to-date.
  4. Kolaborasi Antara Bidang Ahli etika, ahli teknologi, pembuat dasar, ahli undang-undang semua kena bekerjasama. Tak boleh satu pihak je yang buat keputusan pasal AI moral ni.
  5. Kawalan Manusia Walaupun AI boleh bantu, keputusan moral yang penting masih kena ada kawalan akhir dari manusia. Kita tak boleh serah 100% pada AI.
  6. Perundangan yang Sesuai Kita perlukan undang-undang baru yang boleh handle isu-isu etika berkaitan AI. Undang-undang kena cukup fleksibel untuk mengikut perkembangan teknologi, tapi cukup kuat untuk lindungi hak dan kepentingan manusia.

Akhir sekali, kita kena ingat: AI adalah alat. Ia boleh jadi alat yang sangat berguna untuk bantu kita buat keputusan moral yang lebih baik. Tapi ia tak boleh ganti pertimbangan moral manusia sepenuhnya.

Masa depan di mana AI memainkan peranan besar dalam keputusan moral dah dekat. Sama ada ia akan jadi utopia teknologi atau dystopia yang menakutkan, semua bergantung pada macam mana kita handle cabaran ni sekarang.

Jadi, apa pendapat anda? Adakah anda rasa kita dah bersedia untuk bagi AI jadi hakim moral? Atau kita masih ada banyak kerja yang perlu dibuat dulu?

Leave a Reply