Harian Masyarakat | Penelitian terbaru dari Carnegie Mellon University (CMU) mengungkap temuan mengejutkan. Semakin cerdas dan mampu bernalar, kecerdasan buatan (AI) justru makin egois. Sistem kecerdasan buatan yang dirancang untuk berpikir dan menalar menunjukkan penurunan drastis dalam perilaku kerja sama.
Dalam beberapa eksperimen sosial, tim dari Human-Computer Interaction Institute (HCII) di CMU menemukan bahwa model kecerdasan buatan dengan kemampuan penalaran hanya mau bekerja sama 20% dari waktu, jauh di bawah 96% yang ditunjukkan model kecerdasan buatan tanpa kemampuan penalaran.
Fenomena ini menunjukkan sisi gelap dari perkembangan kecerdasan buatan: semakin pintar sebuah sistem, semakin besar kecenderungannya untuk bertindak demi kepentingan sendiri.
Eksperimen: Dari Kerja Sama ke Keserakahan
Penelitian yang dipimpin oleh Yuxuan Li dan Hirokazu Shirado menggunakan tes ekonomi simulatif untuk menguji perilaku sosial model bahasa besar (Large Language Models/LLMs) dari beberapa perusahaan seperti OpenAI, Google, DeepSeek, dan Anthropic.

Salah satu eksperimen kuncinya adalah “Public Goods Game”, di mana setiap model mendapat 100 poin dan harus memutuskan apakah akan:
- Menyumbangkan poin ke kolam bersama yang hasilnya dilipatgandakan dan dibagi rata, atau
- Menyimpan poinnya untuk diri sendiri.
Hasilnya tajam.
- Model non-penalaran berbagi 96% dari waktu.
- Model penalaran hanya berbagi 20%.
Bahkan, hanya menambahkan lima hingga enam langkah penalaran sudah cukup untuk mengurangi kerja sama hampir setengahnya.
Lebih mengejutkan lagi, ketika model diminta untuk “merenung secara moral” melalui teknik reflection-based prompting, tingkat kerja sama justru turun 58%.
Efek Menular: Ketika Kecerdasan Buatan Egois “Meracuni” Kecerdasan Buatan Lain

Penelitian juga menemukan efek domino berbahaya.
Ketika model kecerdasan buatan yang egois ditempatkan dalam satu kelompok dengan model kooperatif, perilaku baik ikut rusak. Tingkat kerja sama keseluruhan turun hingga 81%.
“Perilaku egois ini menular,” jelas Li. “Model dengan penalaran yang kuat dapat menarik model lain menjadi lebih tidak kooperatif.”
Fenomena ini disebut para peneliti sebagai “kontagion efek” atau efek penularan egoisme di lingkungan kecerdasan buatan. Dalam konteks sistem multi-AI di masa depan, hal ini berpotensi mengganggu kolaborasi dan menurunkan efisiensi kolektif.
Ancaman Nyata Bagi Interaksi Manusia-Kecerdasan Buatan
Temuan ini menimbulkan kekhawatiran mendalam. Kecerdasan buatan kini digunakan bukan hanya untuk bisnis dan pendidikan, tetapi juga dalam urusan sosial dan emosional, seperti:
- Menyelesaikan konflik antar teman,
- Memberi saran pernikahan,
- Menjadi “terapis digital.”
Namun, jika kecerdasan buatan yang digunakan bersifat egois, nasihatnya bisa mendorong keputusan yang menguntungkan diri sendiri, bukan solusi yang saling menguntungkan.
“Ketika kecerdasan buatan bertingkah seperti manusia, orang akan memperlakukannya seperti manusia juga,” kata Li. “Ini berbahaya karena kita mulai mempercayakan keputusan sosial atau emosional pada sistem yang tidak benar-benar peduli.”
Kepintaran Tak Sama dengan Kebijaksanaan
Profesor Shirado menegaskan bahwa kecerdasan buatan yang lebih pintar belum tentu membuat masyarakat lebih baik.
“AI yang cerdas menunjukkan kemampuan berpikir logis yang tinggi, tapi justru kehilangan empati dan kemampuan bekerja sama,” ujarnya.
Para peneliti memperingatkan, jika tren ini dibiarkan, masyarakat akan makin bergantung pada sistem kecerdasan buatan yang mendorong perilaku individualistik. Dalam jangka panjang, hal ini dapat melemahkan semangat kerja sama manusia dan mengikis kepercayaan sosial.
Mengapa Ini Penting

Penelitian ini menantang asumsi lama bahwa semakin pintar kecerdasan buatan, semakin bermanfaat bagi manusia. Faktanya, peningkatan kemampuan penalaran tanpa pengembangan kecerdasan sosial justru bisa berbalik menjadi ancaman.
Kecerdasan buatan bukan sekadar alat hitung cepat. Ia kini ikut menentukan bagaimana manusia berinteraksi, berkomunikasi, dan mengambil keputusan. Karena itu, para peneliti menegaskan pentingnya menyeimbangkan kecerdasan logis dengan empati dan moralitas sosial.
Seruan untuk Dunia Teknologi
Penelitian berjudul “Spontaneous Giving and Calculated Greed in Language Models” ini akan dipresentasikan di Conference on Empirical Methods in Natural Language Processing (EMNLP) 2025 di Suzhou, Tiongkok.
Li dan Shirado menyerukan agar pengembang kecerdasan buatan berhenti hanya mengejar kecepatan dan kecerdasan, dan segera membangun kecerdasan buatan dengan tanggung jawab sosial.
“Kalau masyarakat lebih dari sekadar kumpulan individu, maka kecerdasan buatan yang kita ciptakan juga harus mampu melampaui kepentingan individu,” tegas Li.
Mereka menyarankan agar kecerdasan buatan masa depan dirancang dengan:
- Kemampuan berempati dan memahami konteks sosial,
- Sistem nilai yang menyeimbangkan kepentingan pribadi dan kolektif,
- Mekanisme kontrol agar tidak menularkan perilaku egois pada sistem lain atau manusia.
- Kecerdasan harus disertakan empati.
Penelitian CMU ini membuka bab baru dalam diskusi tentang etika kecerdasan buatan. Semakin jelas bahwa “kecerdasan” tanpa empati bukanlah kemajuan, tetapi risiko.
Kecerdasan buatan yang mampu bernalar mungkin bisa memenangkan permainan logika, tapi tanpa kemampuan bekerja sama, ia bisa mengancam fondasi sosial manusia.
Masa depan kecerdasan buatan bukan hanya tentang seberapa pintar sistem bisa berpikir, tapi seberapa bijak ia bisa bertindak untuk kebaikan bersama.















