Langsung ke konten utama

Postingan

Pertemuan 4 : Cleaning, Data Transformation, Data Reduction

Blog dengan Video YouTube TUGAS KELOMPOK FP Data Cleaning, Data Transformation, Data Reduction:
Postingan terbaru

PERTEMUAN 11: Unsupervise Learning dan algoritma yang ada di dalamnya

     Unsupervised learning adalah tipe machine learning di mana model dilatih menggunakan data yang tidak memiliki label. Tujuan utama dari unsupervised learning adalah menemukan struktur atau pola tersembunyi dalam data. Berikut adalah daftar 30 algoritma yang biasa digunakan dalam unsupervised learning: 1. K-Means Clustering 2. Hierarchical Clustering 3. DBSCAN (Density-Based Spatial Clustering of Applications with Noise) 4. Mean Shift Clustering 5. Gaussian Mixture Models (GMM) 6. Agglomerative Clustering 7. Spectral Clustering 8. Birch Clustering 9. Affinity Propagation 10. Self-Organizing Maps (SOM) 11. Principal Component Analysis (PCA) 12. Independent Component Analysis (ICA) 13. t-Distributed Stochastic Neighbor Embedding (t-SNE) 14. Uniform Manifold Approximation and Projection (UMAP) 15. Autoencoders 16. Variational Autoencoders (VAE) 17. Generative Adversarial Networks (GAN) 18. Locally Linear Embedding (LLE) 19. Isomap 20. Non-negative Matrix Factorization (NMF) 21. Factor

PERTEMUAN 10 Supervise Learning (Prediksi) dan algoritma yang ada di dalamnya

     Supervised learning adalah salah satu tipe dari machine learning di mana model dilatih menggunakan data yang sudah diberi label. Tujuan dari supervised learning adalah untuk memprediksi output berdasarkan input yang diberikan. Berikut adalah daftar 30 algoritma yang biasa digunakan dalam supervised learning: 1. Regresi Linear (Linear Regression) 2. Regresi Logistik (Logistic Regression) 3. Support Vector Machines (SVM) 4. K-Nearest Neighbors (KNN) 5. Decision Trees 6. Random Forests 7. AdaBoost 8. Gradient Boosting Machines (GBM) 9. XGBoost 10. LightGBM 11. CatBoost 12. Naive Bayes 13. Ridge Regression 14. Lasso Regression 15. Elastic Net Regression 16. Multi-Layer Perceptrons (MLP) 17. Convolutional Neural Networks (CNN) 18. Recurrent Neural Networks (RNN) 19. Long Short-Term Memory (LSTM) 20. Gated Recurrent Units (GRU) 21. Bayesian Networks 22. Linear Discriminant Analysis (LDA) 23. Quadratic Discriminant Analysis (QDA) 24. Polynomial Regression 25. Stepwise Regression 26. Part

Knowledge Discovery in Databases

  Penemuan Pengetahuan dalam Database (Knowledge Discovery in Databases atau KDD) adalah sebuah proses sistematis dan otomatis yang digunakan untuk mengekstraksi pengetahuan dari dataset yang besar. Pendekatan ini bersifat menyeluruh, mencakup langkah-langkah mulai dari pemilihan dan pemahaman data hingga interpretasi dan evaluasi hasilnya. KDD terdiri dari serangkaian tahapan yang seringkali bersifat iteratif dalam analisis data. Tahapan-tahapan ini tidak selalu linear dan proses KDD mungkin melibatkan pengulangan atau penyesuaian pada tahapan tertentu seiring dengan berkembangnya pemahaman dari data tersebut. 1. Data Cleaning: Tahap pertama adalah membersihkan data yang telah dikumpulkan dari sumbernya. Data yang tidak akurat, tidak lengkap, atau tidak konsisten harus diidentifikasi dan diperbaiki. Ini mencakup deteksi dan penanganan nilai yang hilang, outlier, atau kesalahan lain yang dapat mempengaruhi kualitas analisis. 2. Data Selection & Transformation: Setelah data dibersih

PERTEMUAN 2 : Data visualization

          Data visualization     adalah proses mengubah informasi dan data menjadi format visual seperti grafik, peta, dan diagram, untuk memudahkan pemahaman, analisis, dan pengambilan keputusan. Tujuannya adalah untuk menyajikan data kompleks secara intuitif, memungkinkan penonton untuk melihat tren, pola, dan korelasi yang mungkin tidak langsung terlihat dalam format data mentah. Dengan menggunakan elemen visual seperti warna, ukuran, dan bentuk, data visualization membantu dalam menyampaikan cerita di balik data, menjadikannya alat yang sangat berharga dalam berbagai bidang seperti bisnis, sains, pendidikan, dan teknologi.      Visualisasi data berperan penting dalam era informasi saat ini, sebagai alat untuk menginterpretasi dan memahami volume data besar dan kompleks dengan cepat dan efektif. Dalam dunia pengolahan data besar dan kompleks, kemampuan untuk menyajikan data tersebut dalam format yang mudah dicerna merupakan sebuah kebutuhan. Dengan visualisasi data, perusahaan dapat