Alasan dibalik penggunaan regularisasi dan jenis-jenisnya

Dalam membangun model neural network, kita menginginkan hasil yang bagus tidak hanya pada training data, namun juga pada test data. Namun seringkali kita mendapatkan model yang memiliki error rendah pada training data akan tetapi memiliki error yang tinggi pada test data. Kondisi seperti ini disebut kondisi overfitting, dimana model kita memiliki generalization error yang tinggi. Untuk mengatasi permasalah ini dibutuhkan regularisasi.

Regularisasi adalah teknik yang digunakan untuk melakukan modifikasi pada model neural network yang bertujuan untuk mengurangi generalization error, bukan mengurangi training error seperti peran loss function. Beberapa cara digunakan untuk mengatasi masalah ini, salah satunya adalah dengan memberikan batasan/constraint


Hal yang perlu diketahui sebelum menggunakan gradient descent untuk model neural network

Photo by Marco Pregnolato on Unsplash

Jika sudah familiar dengan deep learning atau neural network, pastinya juga sudah tidak asing lagi dengan yang namanya gradient descent. Gradient descent adalah algoritma yang digunakan untuk melakukan optimisasi dari suatu fungsi dengan menggunakan turunan dari fungsi itu sendiri.

Proses optimisasi gradient descent dapat diibaratkan dengan berada di atas bukit untuk mengambil gambar seperti di atas. Lalu kita diharuskan untuk menemukan tempat terendah di sekitar tempat itu. Jalur mana yang akan kita pilih dan dimana kita akan berhenti? Nah, disini gradient descent akan memilih titik untuk berhenti yang menurutnya adalah titik paling rendah (titik optimal). Bagaimana gradient descent melakukannya?

Ibaratkan…


Model Compression Techniques that Perform Better than the Original One

Photo by Simon Migaj on Unsplash

A deep neural network is one of the powerful machine learning methods. It has a tremendous outstanding performance in many tasks, including visual recognition, natural language processing, and also speech recognition. Building a deep neural network that performs well in a downstream task often requires having millions or even billions of parameters. One example from Krizhevsky’s model that won the ImageNet competition for image classification, it has more than 60 million parameters with only five convolutional layers and three fully connected layers [1].

Deploying a model with those huge parameters requires high resources and computationally expensive. While sometimes the target…


Apa itu machine learning dan bagaimana penggunaannya?

Photo by Franck V. on Unsplash

Beberapa tahun terakhir, dunia teknologi melakukan penelitian secara masif tentang pembelajaran mesin atau machine learning. Berbagai macam perusahaan pun tidak mau ketinggalan dengan trend ini. Banyak perusahaan berbondong-bondong melakukan hiring Data Scientist untuk mengerjakan pekerjaan di kantor dengan menggunakan machine learning, meskipun dapat kita selesaikan dengan menggunakan Excel. Jadi apa itu sebenarnya machine learning?

“A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E” (Mitchell, 1997)

Dari definisi diatas, dapat kita simpulkan bahwa…


Ternyata daftar kuliah di Jerman itu sama sekali nggak ribet lho!

Photo by Ansgar Scheffold on Unsplash

Halo teman-teman, kali ini aku mau cerita soal pengalaman persiapan kuliah aku di Jerman. Buat yang belum tau, jadi aku ambil bachelor di Indo trus langsung lanjut ambil master di Jerman. Di Jerman sendiri, aku ambil international program dengan pengantar bahasa Inggris. Tulisan ini bisa jadi bias, karna aku nggak ada pandangan dari program yang pengantar bahasa Jerman. Dan juga ini pengalaman aku daftar di kampusku aja, bisa jadi kampus-kampus lain beda. Jadi boleh juga di share pengalaman kalian di tempat lain.

TL;DR — Jadi kuliah master di Jerman itu sama sekali nggak ribet! Bisa langsung mulai tanpa ikut kelas…


Making web crawling easier, just only in 5 lines of code in Python using BeautifulSoup!

Photo by Ilya Pavlov on Unsplash

Dalam artikel ini, kita akan membahas tentang web scraping dan implementasinya dengan menggunakan Library BeautifulSoup Python.

Apa itu web scraping dan apa tujuannya?

Web scraper merupakan sebuah sistem yang digunakan untuk melakukan ekstraksi data dari semi-structured data seperti website. Tujuan dari scraping adalah untuk mendapatkan informasi spesifik yang diperlukan. Contoh dari penggunaan web scraping adalah ekstraksi komentar dari sebuah toko online untuk dilakukan analisis terhadap produk tertentu.

Web scraping sederhana pada halaman wikipedia

Untuk tutorial kali ini, kita akan menggunakan website wikipedia untuk melakukan web scraping. Kita hanya akan mengambil informasi mengenai kategori pada bagian “Categories” yang berada pada akhir setiap artikel wikipedia. Dengan melakukan ekstraksi terhadap “Categories” pada artikel wikipedia ini, nantinya…

Ida Novindasari

Data Science Enthusiast

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store