🚨 Para peneliti Stanford baru saja mengungkap efek samping aneh dari AI yang hampir tidak ada yang membicarakannya. Makalah itu disebut "Artificial Hivemind." Dan temuan intinya meresahkan. Ketika model bahasa menjadi lebih baik, mereka juga mulai terdengar semakin sama. Tidak hanya dalam satu model. Di berbagai model. Para peneliti membangun kumpulan data yang disebut INFINITY-CHAT dengan 26.000 pertanyaan terbuka nyata seperti penulisan kreatif, curah pendapat, opini, dan saran. Pertanyaan di mana tidak ada satu pun jawaban yang benar. Secara teori, petunjuk ini harus menghasilkan keragaman yang sangat besar. Tapi yang terjadi sebaliknya. Dua pola muncul: 1) Pengulangan intra-model Model yang sama terus menghasilkan jawaban yang sangat mirip di seluruh jalan. 2) Homogenitas antar-model Model yang sama sekali berbeda menghasilkan respons yang sangat mirip. Dengan kata lain: Alih-alih ribuan perspektif unik... Kami mendapatkan beberapa ide yang sama yang didaur ulang berulang kali. Para penulis menyebutnya "Artificial Hivemind." ...