RobustX / Chương trình học / Vị trí công việc / Ai Engineer / Phân tích & Khai phá dữ liệu với Python

Phân tích & Khai phá dữ liệu với Python

Trong mọi dự án AI/ML, 80% thời gian là dành cho việc chuẩn bị và làm sạch dữ liệu. Khóa học này chính là bước đi then chốt giúp bạn làm chủ giai đoạn quan trọng nhất, biến bạn từ một người biết Python trở thành chuyên gia khai phá dữ liệu thực thụ. Đây là sự đầu tư vào kỹ năng cốt lõi, đảm bảo mọi mô hình bạn xây dựng đều dựa trên nền tảng dữ liệu chất lượng và đáng tin cậy.

Chương trình sẽ đưa bạn đi sâu vào hệ sinh thái phân tích dữ liệu của Python, trang bị cho bạn bộ công cụ toàn diện để xử lý mọi bài toán. Bạn sẽ bắt đầu bằng việc làm chủ Pandas, thư viện mạnh mẽ nhất để thao tác, tái cấu trúc và làm sạch dữ liệu từ nhiều nguồn khác nhau. Tiếp đó, bạn sẽ nắm vững bộ đôi MatplotlibSeaborn để trực quan hóa, từ việc khám phá phân phối cho đến việc tìm ra các mối tương quan ẩn sâu. Toàn bộ kiến thức này được lồng ghép trong một quy trình Phân tích Dữ liệu Khám phá (EDA) bài bản, giúp bạn tự tin chuẩn bị dữ liệu chất lượng cao cho các dự án Machine Learning phức tạp nhất.

Thời lượng: 27h

KẾT QUẢ ĐẠT ĐƯỢC

Yêu cầu tiên quyết:

    • Đã hoàn thành khóa học nền tảng IT.
    • Nắm vững kiến thức Python cơ bản (biến, hàm, cấu trúc điều kiện, vòng lặp).
    • Biết cách làm việc trong môi trường Jupyter Notebook hoặc tương đương.

Nội dung khóa học

 1. Làm quen với Pandas và Thao tác Dữ liệu Cơ bản
  • Giới thiệu Pandas và hệ sinh thái Python cho phân tích dữ liệu:
    • Vai trò của Pandas trong quy trình phân tích hiện đại; sức mạnh và sự tiện dụng so với Excel.
    • Làm quen với các đối tượng chính: DataFrame, Series.
  • Đọc và ghi dữ liệu:
    • Thực hành đọc file CSV, Excel vào DataFrame.
    • Xuất kết quả phân tích ra file mới, chia sẻ cho đồng nghiệp.
  • Truy xuất, chọn lọc dữ liệu:
    • Xem nhanh nội dung và cấu trúc dữ liệu với head(), info(), describe().
    • Lựa chọn hàng/cột với các phương thức loc, iloc, at, iat.
  • Làm sạch dữ liệu:
    • Lọc, sắp xếp dữ liệu; thay đổi index theo nhu cầu.
    • Xử lý dữ liệu thiếu (dropna, fillna), đổi kiểu dữ liệu, chuẩn hóa cột.
  • Thực hành:
    • Đọc một bộ dữ liệu thực tế, truy xuất thông tin, lọc/sắp xếp, xuất dữ liệu ra file kết quả.
 2. Kỹ thuật Tổng hợp Dữ liệu Nâng cao
  • Split-Apply-Combine với groupby():
    • Tổng hợp dữ liệu theo nhóm (theo khách hàng, vùng miền, sản phẩm…).
    • Ứng dụng thực tế: đếm số lượng, tính trung bình, tổng doanh số…
  • .agg() – tổng hợp đa hàm:
    • Áp dụng nhiều hàm tổng hợp (mean, sum, min, max…) đồng thời trên các nhóm.
  • .transform() và logic tuỳ chỉnh:
    • Thực hiện phép tính trên nhóm và trả về kết quả cùng kích thước với DataFrame gốc.
    • Ứng dụng lambda function để tạo các logic tổng hợp đặc thù.
  • Thực hành:
    • Tổng hợp doanh số, số lượng khách hàng theo nhóm, tự xây dựng chỉ số phân tích.
 3. Tái cấu trúc và Định hình lại Dữ liệu
  • Dữ liệu dạng rộng (“wide”) và dài (“long”):
    • Hiểu sự khác biệt, biết khi nào chọn mỗi dạng cho từng phân tích/báo cáo.
  • pivot_table() – tổng hợp và xoay chiều dữ liệu:
    • Từ dữ liệu giao dịch về từng khách hàng thành bảng tổng hợp theo thời gian, sản phẩm…
  • melt() – chuyển đổi rộng <-> dài:
    • Chuẩn bị dữ liệu cho vẽ biểu đồ, nhập vào công cụ BI hoặc trực quan hóa.
  • stack(), unstack() – chỉ mục đa cấp (MultiIndex):
    • Làm việc với dữ liệu dạng phân cấp, tạo bảng báo cáo nâng cao.
  • Thực hành:
    • Tái cấu trúc dữ liệu bán hàng/thời tiết/thống kê từ dạng raw thành bảng phân tích.
 4. Trực quan hóa Dữ liệu Chuyên sâu
  • Phân tích đơn biến:
    • Vẽ histplot, kdeplot để hiểu phân phối của biến số, nhận diện outlier với boxplot/violinplot.
  • Phân tích đa biến:
    • scatterplot, regplot – phát hiện quan hệ tuyến tính giữa 2 biến.
    • heatmap – trực quan hóa ma trận tương quan giữa nhiều biến.
    • pairplot – “scan” toàn bộ mối liên hệ giữa các cặp biến số.
  • Tuỳ biến và thẩm mỹ biểu đồ:
    • Chỉnh màu, marker, chú thích, đường xu hướng.
    • Nguyên tắc chọn loại biểu đồ và kể “câu chuyện” bằng hình ảnh.
  • Thực hành:
    • Phân tích điểm bất thường, xác định biến ảnh hưởng lớn nhất đến kết quả kinh doanh/bán hàng.
 5. Quy trình Phân tích Dữ liệu Khám phá (EDA)
  • Quy trình EDA :
    • Đặt câu hỏi phân tích, xác định mục tiêu.
    • Thu thập & làm sạch dữ liệu (Data Cleaning & Preparation).
    • Phân tích đơn biến (Univariate), đa biến (Multivariate).
    • Tổng hợp insight, kết luận và đề xuất bước tiếp theo.
 6. BÀI THỰC HÀNH CUỐI KHÓA: Phân tích Khám phá Toàn diện Bộ dữ liệu về Bất động sản

Làm sạch dữ liệu: Từ một bộ dữ liệu về giá nhà, xử lý các giá trị thiếu, kiểm tra và xử lý các giá trị ngoại lai.

Thao tác nâng cao: Sử dụng groupby()pivot_table() để trả lời các câu hỏi như: “Giá nhà trung bình theo từng khu vực và số lượng phòng ngủ là bao nhiêu?”.

Trực quan hóa & Phân tích:

      • Vẽ histplotboxplot để xem phân phối của giá nhà và diện tích.
      • Vẽ heatmap để xem xét mối tương quan giữa các yếu tố như diện tích, số phòng ngủ, vị trí, và giá nhà.
      • Sử dụng scatterplot để trực quan hóa mối quan hệ giữa diện tích và giá nhà.

Tổng kết: Viết một bản tóm tắt các phát hiện chính từ quá trình EDA (ví dụ: các yếu tố nào có vẻ ảnh hưởng mạnh nhất đến giá nhà) và đề xuất các giả thuyết để kiểm định ở các bước sau.