Bagging (Bootstrap Agregating) dalam Pembelajaran Mesin: Mengurangkan Varians dan Meningkatkan Generalisasi
Bagging (Bootstrap Aggregating) ialah teknik yang digunakan dalam pembelajaran mesin untuk mengurangkan varians model dan meningkatkan keupayaan generalisasinya. Ia melibatkan mencipta berbilang kejadian model yang sama, setiap satu dengan subset data latihan yang berbeza dan menggabungkan ramalan mereka untuk membuat ramalan akhir.
Begini cara ia berfungsi:
1. Persampelan Bootstrap: Subset rawak data latihan dipilih dengan penggantian (iaitu, beberapa sampel boleh dipilih lebih daripada sekali). Ini mencipta set data baharu yang merupakan perwakilan rawak daripada set asal.
2. Latihan model: Setiap contoh model dilatih pada sampel bootstrap.
3. Ramalan: Setiap contoh model membuat ramalan pada data ujian.
4. Menggabungkan ramalan: Ramalan daripada semua contoh model digabungkan menggunakan teknik seperti purata atau undian untuk membuat ramalan akhir.
Idea di sebalik pembungkusan ialah kerawanan dalam pemilihan data latihan dan subset ciri yang berbeza yang digunakan oleh setiap contoh model akan mengurangkan varians model dan meningkatkan keupayaannya untuk membuat generalisasi kepada data baharu. Dengan menggabungkan ramalan berbilang model, pembungkusan juga boleh membantu untuk mengurangkan pemasangan lampau dan meningkatkan keteguhan model.
Pembengan biasanya digunakan dalam pokok keputusan, hutan rawak dan kaedah pembelajaran ensemble yang lain. Ia amat berguna apabila terdapat banyak ciri dalam set data dan hubungan antara ciri dan pembolehubah sasaran adalah rumit.



