Trí tuệ Nhân tạo (AI), đặc biệt là Machine Learning (ML) và Deep Learning (DL), dựa rất sâu vào toán học. Toán học cung cấp nền tảng để mô hình hóa dữ liệu, tối ưu hóa mô hình và suy luận. Dưới đây là các lĩnh vực toán học chính được sử dụng trong AI, kèm công thức và ví dụ cụ thể.
Đây là nền tảng cốt lõi của AI hiện đại. Hầu hết dữ liệu và mô hình được biểu diễn dưới dạng vector, matrix và tensor.
Vector: Đại lượng có hướng và độ lớn, dùng để biểu diễn đặc trưng (features) của dữ liệu. Ví dụ: Một ảnh grayscale 28x28 pixel được "duỗi" thành vector 784 chiều.
Matrix: Dùng để biểu diễn weights trong neural network. Nhân matrix-vector: 𝐲 = W𝐱 + 𝐛
Tensor: Tổng quát hóa, phổ biến trong deep learning (ví dụ: tensor 4 chiều cho batch ảnh RGB).
Ví dụ kiến trúc neural network cơ bản:
Dùng chủ yếu cho tối ưu hóa (optimization) và lan truyền ngược (backpropagation).
Đạo hàm riêng và gradient: Để tìm hướng giảm nhanh nhất của hàm mất mát (loss function). Gradient descent: θₙₑw = θₒₗd − η ∇L(θ), với η là learning rate.
Chain rule: Cơ sở của backpropagation để tính đạo hàm qua các layer.
Hàm mất mát thường là bề mặt phức tạp:
Quy trình backpropagation:
Hình học thông tin (Information Geometry): Phân tích manifold của phân phối xác suất.
Lý thuyết đồ thị (Graph Theory): Cho Graph Neural Networks (GNN).
Phương trình vi phân: Trong Neural ODEs.
Toán rời rạc: Cho reinforcement learning (Markov Decision Processes).
Toán học không chỉ là công cụ mà là ngôn ngữ chính của AI. Không có đại số tuyến tính và giải tích, không có neural networks hiện đại. Hiện nay, tensor và attention đang thống trị nhờ khả năng xử lý dữ liệu lớn và song song trên GPU.