Eliezer Shlomo Yudkovsky adalah spesialis Amerika dalam kecerdasan buatan, yang mempelajari masalah singularitas teknologi dan menganjurkan penciptaan AI Ramah. Dia adalah penulis beberapa cerita fiksi ilmiah di mana dia menggambarkan beberapa topik yang berkaitan dengan ilmu kognitif dan rasionalitas.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografi
Eliezer Shlomo Yudkovsky adalah salah satu rasionalis paling aktif di Amerika modern, seorang peneliti komputer dan yang mempopulerkan gagasan "kecerdasan buatan ramah".
Lahir 11 September 1979. Salah satu pendiri dan peneliti di lembaga penelitian non-pemerintah, Institute for Research on Machine Intelligence, yang menerbitkan buku-bukunya. Eliezer Yudkovsky adalah penulis novel filosofis Harry Potter dan Metode Rasionalisme, yang diterbitkan di beberapa bagian di Internet antara 2010 dan 2015. Di dalamnya, Harry tumbuh dalam keluarga seorang ilmuwan Oxford dan, sebelum melakukan perjalanan ke Hogwarts, belajar darinya metode berpikir rasional.
Sejauh diketahui, ia tidak memiliki hubungan dengan lingkaran "realis spekulatif". Namanya sering disebutkan sehubungan dengan Robin Hanson, selama beberapa tahun (dari 2006 hingga 2009) mereka adalah dua penulis utama blog "Mengatasi Prasangka", yang ada pada uang Institute for Future Humanity di Oxford.
Terkadang nama Yudkovsky dapat didengar sehubungan dengan Raymond Kurzweil. Dia adalah perwakilan filosofis dari komunitas techno-geeks, tidak dapat diakses dan tidak dapat dipahami, dengan demikian, bagi mayoritas publik kemanusiaan, yang menjadi milik hampir semua pembaca realis spekulatif. Tidak mengherankan, karena ia sering beralih ke kesimpulan logis dan matematis, probabilistik dan statistik, diekspos menggunakan rumus dan tabel.
Minat ilmiah
Yudkovsky adalah salah satu pendiri dan peneliti di Singularity Institute for Artificial Intelligence Institute (SIAI). Dia membuat kontribusi besar untuk pengembangan lembaga. Dia adalah penulis buku "Creating Friendly AI" (2001), artikel "Level Organisasi dalam Kecerdasan Umum" (2002), "Koheren Extrapolated Volition" ("Koherent Extrapolated Volition", 2004) dan Teori Keputusan Abadi (2010). Publikasi ilmiah terbarunya adalah dua artikel dalam koleksi "Risiko Bencana Global" (2008) yang diedit oleh Nick Bostrom, yaitu, "Kecerdasan Buatan sebagai Faktor Risiko Global Positif dan Negatif" dan "Distorsi Kognitif dalam Menilai Risiko Global". Yudkovsky tidak belajar di universitas dan merupakan otodidak tanpa pendidikan formal di bidang AI.
Yudkovsky mengeksplorasi desain AI yang mampu memahami diri sendiri, modifikasi diri, dan perbaikan diri rekursif (Seed AI), serta arsitektur AI yang akan memiliki struktur motivasi yang stabil dan positif (Friendly Artificial Intelligence). Selain karya penelitiannya, Yudkovsky dikenal karena penjelasannya tentang model-model rumit dalam bahasa non-akademik, yang dapat diakses oleh kalangan pembaca yang luas, misalnya, lihat artikelnya “Penjelasan Intuitif Teorema Bayes”.
Yudkovsky, bersama dengan Robin Hanson, adalah salah satu penulis utama dari blog Bias Mengatasi (mengatasi prasangka). Pada awal 2009, ia berpartisipasi dalam organisasi blog Less Wrong, yang bertujuan untuk "mengembangkan rasionalitas manusia dan mengatasi distorsi kognitif." Setelah itu, Mengatasi Bias menjadi blog pribadi Hanson. Materi yang disajikan di blog ini diorganisasikan sebagai rantai posting yang menarik ribuan pembaca - lihat, misalnya, rantai teori hiburan.
Yudkovsky adalah penulis beberapa cerita fiksi ilmiah di mana ia menggambarkan beberapa topik yang berkaitan dengan ilmu kognitif dan rasionalitas.
Karier
- 2000. Yudkovsky mendirikan Singularity Institute (kemudian dinamai MIRI).
- 2006. Yudkovsky bergabung dengan blog kolektif Mengatasi Bias dan mulai menulis teks yang kemudian menjadi Chains.
- 2009. Berdasarkan entri Yudkovsky tentang Mengatasi Bias, blog kolektif LessWrong.com yang terkenal dibuat.
- 2010-2015. Yudkovsky menulis GPiMRM.
- 2013. Yudkovsky menerbitkan posting terbaru tentang LessWrong.com dan berhenti menulis di situs. Pada 2017, Yudkovsky menerbitkan sebagian besar teks yang tersedia untuk umum di Facebook dan Arbital
Eksperimen pemikiran
Bayangkan sebuah kecerdasan buatan yang sangat pintar terkunci di dunia virtual - katakanlah, hanya di kotak tembakau. Anda tidak tahu apakah dia akan jahat, ramah atau netral. Yang Anda tahu adalah dia ingin keluar dari kotak dan Anda dapat berinteraksi dengannya melalui antarmuka teks. Jika AI benar-benar super intelijen, dapatkah Anda berbicara dengannya selama lima jam dan tidak menyerah pada persuasi dan manipulasinya - bukan untuk membuka kotak tembakau?
Eksperimen pemikiran ini diusulkan oleh Eliezer Yudkowsky, seorang peneliti di Institut Penelitian Teknik Teknik (MIRI). MIRI memiliki banyak ilmuwan yang mengeksplorasi risiko pengembangan kecerdasan buatan; meskipun belum muncul, itu sudah menarik perhatian dan memicu perdebatan.
Yudkovsky berpendapat bahwa kecerdasan buatan dapat mengatakan apa saja untuk meyakinkan Anda: penalaran yang hati-hati, ancaman, tipu daya, membangun hubungan, saran bawah sadar dan sebagainya. Dengan kecepatan cahaya, AI membangun plot, menyelidiki kelemahan dan menentukan bagaimana paling mudah meyakinkan Anda. Seperti yang dikatakan oleh ahli teori ancaman eksistensial Nick Bostrom, "kita harus percaya bahwa kecerdasan super dapat mencapai semua yang ditetapkannya sebagai tujuannya."
Eksperimen AI kotak tembakau meragukan kemampuan kita untuk mengontrol apa yang bisa kita buat. Itu juga membuat kita memahami kemungkinan yang agak aneh dari apa yang tidak kita ketahui tentang realitas kita sendiri.