
Bulan lalu, Google mengumumkan “AI co-ilmuwan,” sebuah AI yang konon dirancang untuk membantu ilmuwan dalam menciptakan hipotesis dan rencana penelitian. Google mempromosikan ini sebagai cara untuk menemukan pengetahuan baru, namun para ahli berpendapat bahwa AI seperti itu - dan alat-alat serupa - jauh dari janji PR.
\“Alat awal ini, meskipun menarik, tidak tampak akan digunakan secara serius,” kata Sarah Beery, seorang peneliti komputer vision di MIT, kepada TechCrunch. “Saya tidak yakin bahwa ada permintaan untuk sistem pembangkit hipotesis semacam ini dari komunitas ilmiah.”
\Google adalah raksasa teknologi terbaru yang maju dengan gagasan bahwa AI suatu hari nanti akan secara dramatis mempercepat penelitian ilmiah, khususnya di area yang padat literatur seperti biomedis. Dalam esai awal tahun ini, CEO OpenAI Sam Altman mengatakan bahwa alat AI “super cerdas” dapat “membesarkan penemuan dan inovasi ilmiah dengan sangat besar.” Demikian pula, CEO Anthropic Dario Amodei telah dengan berani memprediksi bahwa AI dapat membantu merumuskan obat untuk sebagian besar kanker.
\ \Namun, banyak peneliti tidak menganggap AI saat ini sangat berguna dalam membimbing proses ilmiah. Aplikasi seperti AI co-ilmuwan dari Google tampaknya lebih sebatas hype belaka, kata mereka, tidak didukung oleh data empiris.
\ \Misalnya, dalam kiriman blog yang menggambarkan AI co-ilmuwan, Google mengatakan bahwa alat tersebut telah menunjukkan potensi di bidang seperti penggantian obat untuk leukemia mieloid akut, jenis kanker darah yang memengaruhi sumsum tulang. Namun, hasilnya begitu samar sehingga “tidak ada ilmuwan yang sah akan menganggap [mereka] serius,” kata Favia Dubyk, seorang patolog yang berafiliasi dengan Northwest Medical Center-Tucson di Arizona.
\ \“Ini bisa digunakan sebagai titik awal yang baik bagi para peneliti, namun […] kurangnya detail merupakan hal yang memprihatinkan dan tidak membuat saya percaya padanya,” kata Dubyk kepada TechCrunch. “Kurangnya informasi yang disediakan membuat sangat sulit untuk memahami apakah ini benar-benar bisa membantu.”
\ \Ini bukan pertama kalinya Google dikritik oleh komunitas ilmiah karena mengeumumkan suatu kemajuan AI yang seakan-akan tanpa memberikan cara untuk mereplikasi hasilnya.
\ \Pada tahun 2020, Google mengklaim salah satu sistem AI-nya yang dilatih untuk mendeteksi tumor payudara mencapai hasil yang lebih baik daripada radiologis manusia. Peneliti dari Harvard dan Stanford menerbitkan sanggahan dalam jurnal Nature, mengatakan bahwa kurangnya metode rinci dan kode dalam penelitian Google “mengurangi nilai saintifiknya.”
\ \Para ilmuwan juga mempermalukan Google karena meremehkan batasan alat AI mereka yang ditujukan untuk disiplin ilmiah seperti rekayasa material. Pada tahun 2023, perusahaan tersebut mengatakan sekitar 40 “material baru” telah disintesis dengan bantuan salah satu sistem AI mereka, yang disebut GNoME. Namun, analisis dari luar menemukan bahwa tidak satupun dari material tersebut benar-benar baru.
\ \“Kita tidak akan benar-benar memahami kekuatan dan keterbatasan alat seperti ‘co-ilmuwan’ Google sampai mereka menjalani evaluasi yang ketat dan independen di berbagai disiplin ilmiah,” kata Ashique KhudaBukhsh, seorang asisten profesor rekayasa perangkat lunak di Rochester Institute of Technology, kepada TechCrunch. “AI seringkali berhasil dalam lingkungan yang terkendali namun mungkin gagal ketika diterapkan dalam skala besar.”
\ \Proses yang Rumit
\ \Bagian dari tantangan dalam mengembangkan alat AI untuk membantu dalam penemuan ilmiah adalah mengantisipasi jumlah faktor yang membingungkan. AI mungkin berguna di area di mana eksplorasi yang luas diperlukan, seperti menyaring daftar kemungkinan yang sangat luas. Namun, tidak jelas apakah AI mampu melakukan jenis pemecahan masalah yang out-of-the-box yang mengarah pada terobosan ilmiah.
\ \“Kita telah melihat sepanjang sejarah bahwa beberapa kemajuan ilmiah paling penting, seperti pengembangan vaksin mRNA, didorong oleh intuisi manusia dan ketekunan di tengah keraguan,” kata KhudaBukhsh. “AI, seperti yang ada saat ini, mungkin tidak cocok untuk mengulangi itu.”
\ \Lana Sinapayen, seorang peneliti AI di Sony Computer Science Laboratories di Jepang, percaya bahwa alat seperti AI co-ilmuwan Google fokus pada jenis kerja ilmiah yang salah.
\ \Sinapayen melihat nilai yang sebenarnya dalam AI yang dapat mengotomatisasi tugas-tugas yang sulit atau menjemukan secara teknis, seperti merangkum literatur akademis baru atau memformat pekerjaan agar sesuai dengan persyaratan aplikasi hibah. Namun, tidak ada permintaan yang besar dalam komunitas ilmiah untuk seorang AI co-ilmuwan yang menghasilkan hipotesis, katanya — sebuah tugas dari mana banyak peneliti mendapatkan kepuasan intelektual.
\ \“Bagi banyak ilmuwan, termasuk saya sendiri, menciptakan hipotesis adalah bagian yang paling menyenangkan dari pekerjaan,” kata Sinapayen kepada TechCrunch. “Mengapa saya ingin mengoutsourkan kesenangan saya kepada komputer, dan kemudian hanya tersisa dengan pekerjaan keras yang harus saya lakukan sendiri? Secara umum, banyak peneliti AI generatif tampaknya salah paham mengapa manusia melakukan apa yang mereka lakukan, dan kita berakhir dengan proposal untuk produk yang mengotomatisasi bagian yang sebenarnya memberi kita kebahagiaan.”
\ \Beery mencatat bahwa sering kali langkah paling sulit dalam proses ilmiah adalah merancang dan melaksanakan studi dan analisis untuk memverifikasi atau membantah suatu hipotesis — yang tidak selalu terjangkau oleh sistem AI saat ini. AI tidak bisa menggunakan alat fisik untuk melakukan eksperimen, tentu saja, dan seringkali tampil buruk pada masalah di mana data yang sangat terbatas.
\ \“Sebagian besar ilmu pengetahuan tidak mungkin dilakukan sepenuhnya secara virtual — seringkali ada komponen yang signifikan dari proses ilmiah yang bersifat fisik, seperti mengumpulkan data baru dan melakukan eksperimen di laboratorium,” kata Beery. “Salah satu keterbatasan besar dari sistem [seperti co-ilmuwan AI Google] relatif terhadap proses ilmiah sebenarnya, yang jelas membatasi penggunaannya, adalah konteks tentang laboratorium dan peneliti yang menggunakan sistem itu dan tujuan riset mereka yang spesifik, karya masa lalu mereka, keterampilan mereka, dan sumber daya yang dapat diakses.”
\ \Risiko AI
\ \Kekurangan teknis dan risiko AI — seperti kecenderungannya untuk menghalusinasi — juga membuat para ilmuwan waspada untuk memberikan dukungan untuk pekerjaan serius.
\ \KhudaBukhsh khawatir alat AI hanya akan menghasilkan kebisingan dalam literatur ilmiah, bukan meningkatkan kemajuan.
\ \Ini sudah menjadi masalah. Sebuah penelitian terbaru menemukan bahwa “junk science” yang diproduksi oleh AI membanjiri Google Scholar, mesin pencari gratis Google untuk literatur ilmiah.
\ \“Penelitian yang dihasilkan AI, jika tidak dipantau dengan cermat, dapat membanjiri bidang ilmiah dengan studi-studi berkualitas rendah atau bahkan menyesatkan, membanjiri proses peer review,” kata KhudaBukhsh. “Proses peer review yang kewalahan sudah menjadi tantangan di bidang seperti ilmu komputer, di mana konferensi-konferensi teratas telah melihat peningkatan eksponensial dalam pengajuan.”
\ \Studi-studi yang dirancang dengan baik pun bisa tercemar oleh AI yang berperilaku buruk, kata Sinapayen. Meskipun dia suka dengan ide alat yang bisa membantu dalam tinjauan literatur dan sintesis, Sinapayen mengatakan dia tidak akan percaya pada AI saat ini untuk menjalankan pekerjaan tersebut dengan handal.
\ \“Itu adalah hal-hal yang berbagai alat yang ada sedang klaim bisa lakukan, namun itu bukan pekerjaan yang saya akan serahkan kepada AI saat ini,” kata Sinapayen, menambahkan bahwa dia memiliki masalah dengan cara banyak sistem AI dilatih dan jumlah energi yang mereka konsumsi juga. “Meskipun semua isu etis [...] terselesaikan, AI saat ini hanya tidak cukup dapat diandalkan bagi saya untuk mendasarkan pekerjaan saya pada keluaran mereka dengan cara apapun.”