Skip to content Skip to sidebar Skip to footer

Pengertian Algoritma Decission Tree


Decission Tree dalam konteks data mining mengarah pada aturan dari pohon struktur, algortima dari decisson tree secara otomatis akan menentukan variabel yang terpenting berdasarkan kemampuan mereka menyortir data menjadi output kategori atau kelas yang benar (Santosa & Umam 2018). Algortima Decision Tree juga termasuk dalam teknik klasifikasi Supervised Learning.


Sistem dari decision tree memilih atribut sebagai akar dengan cabang atribut yang berbeda nilainya dan semua obyek dalam kumpulan pelatihan diklasifikasikan menjadi cabang – cabang ini. Jika semua obyek pada cabang milik output kelas yang sama, node dilabeli dan cabang diakhiri dan jika ada kelas yang multiple pada sebuah cabang, atribut lainnya dipilih sebagai node dengan semua nilai peluang atribut dicabangkan. 

Sistem dari decision tree memilih atribut sebagai akar dengan cabang atribut yang berbeda nilainya dan semua obyek dalam kumpulan pelatihan diklasifikasikan menjadi cabang – cabang ini. Jika semua obyek pada cabang milik output kelas yang sama, node dilabeli dan cabang diakhiri dan jika ada kelas yang multiple pada sebuah cabang, atribut lainnya dipilih sebagai node dengan semua nilai peluang atribut dicabangkan. 

Decission Tree

Contoh kasus. Pada Gambar  dapat diamati bahwa decision tree mempunyai karakteristik yang dibentuk dengan sejumlah elemen sebagai berikut (Preasetyo, 2014):
  • Node Akar, tidak mempunyai lengan masukan dan mempunyai nol atau lebih lengan keluaran.
  • Node internal, setiap node yang bukan daun (nonterminal) yang mempunyai tepat satu lengan masukan dan dua atau lebih lengan keluaran. Node ini menyatakan pengujian yang didasarkan pada nilai fitur.
  • Lengan, setiap cabang menyatakan nilai hasil pengujian di node bukan daun
  • Node daun (terminal), node yang mempunyai tepat satu lengan masukan dan tidak mempunyai lengan keluaran. Node ini menyatakan label kelas (keputusan).
Decision tree sesuai diigunakan untuk kasus-kasus dimana outputnya bernilai diskrit. Walaupun banyak model decision tree dengan tingkat kemampuan dan syarat berbeda,pada ummnya beberapa ciri kasus berikut cocok untuk diterapkan decision tree.
  • Pada teknik klasifikasi label atau kelas atau output data biasanya bernilai diskrit. 
  • Data mempunyai missing value. Misalkan untuk beberap objek atribut tidak diketahui nilainya.
Untk membuat decision tree, kita perlu memperhatikan
  1. Atribut mana yang akan dipilih untuk pemisahan objek
  2. Urutkan atribut mana yang akan dipilih terlebih dahulu
  3. Struktur pohon keputusan
  4. Kriteria pemberhentian
  5. Pruning (penghapusan node yang tidak penting / proses yang tidak berguna
Ada beberapa ciri kasus yang cocok untuk diterapkan decision tree antara lain adalah data mempunyai missing value. Misalkan untuk beberapa obyek, nilai dari suatu atribut tidak diketahui. Dalam keadaan seperti ini, decision tree masih mampu memberi solusi yang baik. Model decision tree dibagi menjadi 3 yaitu CART, ID3 dan C4.5.

Paling popular dewasa ini yang sering digunakan adalah algoritma C4.5, kenapa ? karena algoritma tersebut adalah pengembangan dari CART dan ID3 dan lebih kompleknya adalah pengembangan dari ID3. Untuk itu mari ikuti MATERI 8. Analisi Algoritma C4.5

Satu Kata " Jangan Lupa Bernafas dan Tetap Bersyukur "
See You