Coba bayangkan skenario ini. Seorang mahasiswa S2, duduk di depan laptopnya jam 10 malam sebelum deadline tugas kuliah berpikir sistem untuk menyusun Causal Loop Diagram (CLD). Causal Loop Diagram (CLD) adalah sebuah alat visual untuk memahami hubungan sebab-akibat dalam suatu sistem, terutama bagaimana variabel saling memengaruhi melalui feedback loops (lingkaran umpan balik). Diagram ini sering digunakan dalam system thinking untuk mengidentifikasi pola, lingkaran setan (vicious cycles), atau lingkaran baik (virtuous cycles) dalam dinamika organisasi, bisnis, maupun fenomena sosial.
Alih-alih membuka buku teks atau mengulang materi kuliah, ia membuka ChatGPT, mengetik deskripsi masalah yang diberikan dosennya, dan dalam dua menit mendapatkan causal loop diagram lengkap dengan penjelasan feedback loop positif dan negatifnya.
Hasilnya? Cukup masuk akal. Tidak jenius, tapi cukup. Mungkin 75 persen dari apa yang akan dihasilkan mahasiswa yang belajar serius selama satu semester.
Pertanyaannya kemudian menjadi tidak nyaman: jadi apa gunanya kita mengajarkan systems thinking ketika analisa complex yang biasa dilakukan bisa digantikan oleh AI?
Saya ingin memulai dengan kejujuran yang tidak nyaman: sebagian dari apa yang kita ajarkan dalam systems thinking memang sedang terancam. Dan berpura-pura sebaliknya tidak akan membantu siapa pun.
Pekerjaan konsultasi berbasis analisis sistem (membuat model permasalahan, menggambar diagram pemahaman masalah, menyusun solusi dan mensimulasikan skenario) memang sedang berubah. AI generatif cukup baik dalam mengidentifikasi variabel, menyusun hubungan sebab-akibat, merekomendasikan akar masalah, bahkan menjelaskan mengapa sebuah sistem cenderung berperilaku tertentu. Sehingga kalau yang kita ukur adalah kemampuan mahasiswa untuk memproduksi artefak analisis, maka ya, relevansinya memang sedang dipertanyakan.
Ini bukan alarmisme. Ini realita yang sama, sejak saya kuliah hingga kini, teknologi telah banyak mendisrupsi pola pembelajaran. Hal yang pernah terjadi adalah ketika kalkulator pintar masuk ke kelas matematika, ketika Google masuk ke ruang perpustakaan, ketika spreadsheet menggantikan akuntan yang menghitung manual. Setiap kali teknologi mengambil alih lapisan tertentu dari sebuah keahlian, kita dipaksa bertanya: lapisan mana yang tersisa, dan apakah itu cukup berharga untuk tetap diajarkan?
TAPI TUNGGU, AI MENGANALISIS APA SEBENARNYA?
Di sinilah saya mulai merasa, sebagai kekhasan berpikir sistem, bahwa pertanyaannya yang perlu dirumuskan ulang.
AI bekerja di atas framing yang sudah ada. Ia menjawab pertanyaan yang diajukan kepadanya — dan menjawabnya dengan sangat baik. Tapi ia tidak bertanya apakah pertanyaannya sudah tepat. Ia tidak bertanya apakah batas sistem yang didefinisikan pengguna sudah tepat, atau justru sedang menyembunyikan sumber masalah yang sesungguhnya.
Seorang mahasiswa yang meminta AI untuk memodelkan “mengapa kemacetan Jakarta sulit diselesaikan” akan mendapatkan model yang sangat rapi. Tapi apakah pertanyaannya sudah benar? Apakah kemacetan adalah masalahnya? atau gejala dari sesuatu yang lebih dalam? tentang bagaimana kita mendesain kota, tentang insentif penggunaan kendaraan pribadi, tentang siapa yang diuntungkan dari jalan yang macet? Pertanyaan-pertanyaan itu tidak akan muncul dari AI kecuali diajukan lebih dulu oleh manusianya.
Systems thinking bukan tentang technical skills untuk menggambar diagram. Ia menjelma menjadi keberanian intelektual untuk mempertanyakan apakah kita sedang memecahkan masalah yang benar.
YANG TIDAK BISA DIDELEGASIKAN
Ada beberapa hal yang, setidaknya untuk saat ini, masih belum bisa diambil alih sepenuhnya.
Pertama: judgment tentang batas sistem. Setiap model adalah penyederhanaan. Keputusan tentang apa yang dimasukkan dan apa yang dibiarkan di luar adalah keputusan yang sarat nilai dan konteks. AI bisa memodelkan apa yang dimintanya, tapi ia tidak bisa merasakan ketegangan antara apa yang mudah dimodelkan dengan apa yang penting untuk dimodelkan.
Kedua: pembacaan dinamika kompleksitas di balik sebuah sistem. Misalnya, kebijakan energi bukan hanya soal teknis transisi. Ada kepentingan, ada kelompok yang diuntungkan dari status quo, ada resistansi yang tidak tertulis di dokumen mana pun. Sistem sosial dan politik punya lapisan yang tidak sepenuhnya bisa ditangkap oleh data yang tersedia untuk AI.
Ketiga: keberanian untuk mengatakan “kita sedang memecahkan masalah yang salah.” Ini bukan kapabilitas teknis. Ini adalah kapabilitas yang lahir dari latihan berpikir kritis yang panjang dan dari pemahaman bahwa model terbaik pun bisa menjadi peta yang menyesatkan kalau wilayahnya salah dipilih.
IMPLIKASI UNTUK PEMBELAJARAN SYSTEMS THINKING
Kalau yang kita ajarkan selama ini adalah cara menggambar CLD yang benar, maka AI memang mengancam relevansinya — dan mungkin sudah seharusnya begitu. Tapi kalau yang kita ajarkan adalah kemampuan untuk mempertanyakan framing, untuk melihat melampaui gejala menuju struktur, untuk tidak langsung menerima definisi masalah yang diberikan — itu adalah sesuatu yang berbeda sama sekali.
Pertanyaannya bagi saya, sebagai pengajar, adalah jujur kepada diri sendiri: selama ini kita mengajarkan yang mana?
Kalau jawabannya adalah yang pertama, maka ini bukan ancaman dari AI. Ini undangan untuk berubah.
Selamat Hari Raya Idul Fitri 2026 – Mohon Maaf Lahir Batin
