Từ khi trí tuệ nhân tạo ra đời cho đến nay, người ta không ngừng thực hiện các công trình nghiên cứu để đưa tư tưởng nghiên cứu cùng với máy tính để ứng dụng vào việc giải quyết các công việc trong thực tiễn đời sống
Trí Tuệ Nhân Tạo – Học Máy MỤC LỤC 1. Giới thiệu chung .4 2. Các khái niệm cơ bản .5 3. Các kiểu cây quyết định .7 4. Ưu điểm cây quyết định .8 1. Giao diện: 31 31 2. Code chương trình: 32 NHẬN XÉT CỦA GIÁO VIÊN HƯỚNG DẪN 1 Trí Tuệ Nhân Tạo – Học Máy HỌC MÁY Giới thiệu học máy Từ khi trí tuệ nhân tạo ra đời cho đến nay, người ta không ngừng thực hiện các công trình nghiên cứu để đưa tư tưởng nghiên cứu cùng với máy tính để ứng dụng vào việc giải quyết các công việc trong thực tiễn đời sống. Một trong những nguyên nhân làm cho trí tuệ nhân tạo trở thành một trong những lĩnh vực mũi nhọn trong thời đại hiện nay là việc làm cho máy tính trở nên thông minh hơn, nói cụ thể hơn là người ta tìm cách tạo ra các chương trình thông minh hơn có khả năng giải quyết các vấn đề thực tế như cách giải quyết của con người. Một trong những lĩnh vực lý thú của trí tuệ nhân tạo được đề cập trong chuyên đề này là Học máy. Học máy là hướng tiếp cận trong đó thay vì con người phải chỉ ra những tri thức cần thiết để giải quyết bài toán, máy tính sẽ tự động rút trích tri thức này một cách từ những dữ liệu được cung cấp. Học máy mô phỏng quá trình học của con người qua 2 Trí Tuệ Nhân Tạo – Học Máy các mức từ đơn giản đến phức tạp: đầu tiên máy tính ghi nhớ những trường họp đã xuất hiện và cuối cùng học những trường hợp tổng quát chưa từng xuất hiện. Trong một bài toán học máy, đầu vào là một tập dữ liệu huấn luyện bao gồm các mẫu dữ liệu. Mỗi mẫu dữ liệu bao gồm một tập giá trị ứng với các thuộc tính. Tập thuộc tính được chia làm hai phần: thuộc tính quan sát và thuộc tính kết quả. Mục tiêu của học máy là tìm một ánh xạ từ thuộc tính quan sát vào thuộc tính kết quả (tìm moi quan hệ giữa thuộc tính quan sát và thuộc tính kết quả) ứng với tập dữ liệu huấn luyện. Ánh xạ này sẽ được áp dụng lên những mẫu quan sát mới để rút ra kết quả tương ứng. Bảng dưới đây trình bày một ví dụ của học máy, bài toán dự đoán việc có chơi tennis hay không. # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No Trong bài toán này, học máy sẽ tìm một mối quan hệ giữa các thuộc tính quan sát: Outlook (quang cảnh), Temperature (Nhiệt độ), Humidity (Độ ẩm), Wind (Sức gió) với 3 Trí Tuệ Nhân Tạo – Học Máy thuộc tính kết quả Target. Kết quả này sẽ dùng dự đoán giá trị Target khi nhập vào thuộc tính quan sát cho các mẫu mới ví dụ: # Outlook Temperature Humidity Wind Target 15 Sunny Mild Normal Strong ? 16 Rain Cool High Strong ? Việc dự đoán cho mẫu 15 có thể tương đối dễ dàng, vì mẫu này có các giá trị quan sát tương tự mẫu số 11 nên giá trị Target cũng tương tự là Yes (trường hợp học máy đơn giản -ghi nhớ). Tuy nhiên việc dự đoán cho mẫu 16 sẽ khó khăn hơn vì mẫu này không giống bất kỳ một trong những mẫu đã biết. Đây là trường hợp tổng quát của học máy - gặp những trường hợp chưa từng xuất hiện. Các phương pháp học máy đưa ra nhằm giải quyết bài toán trong trường hợp tổng quát. Phần I: Cây quyết định Trong lý thuyết quyết định (chẳng hạn quản lí rủi ro), một cây quyết định (decision tree) là một đồ thị của các quyết định và các hậu quả có thể của nó (bao gồm rủi ro và hao phí tài nguyên). Cây quyết định được sử dụng để xây dựng một kế hoạch nhằm đạt được mục tiêu mong muốn. Các cây quyết định được dùng để hỗ trợ quá trình ra quyết định. Cây quyết định là một dạng đặc biệt của cấu trúc cây. 1. Giới thiệu chung Trong lĩnh vực học máy, cây quyết định là một kiểu mô hình dự báo (predictive model), nghĩa là một ánh xạ từ các quan sát về một sự vật/hiện tượng tới các kết luận về giá trị mục tiêu của sự vật/hiện tượng. Mỗi một nút trong (internal node) tương ứng với một biến; đường nối giữa nó với nút con của nó thể hiện một giá trị cụ thể cho biến đó. Mỗi nút lá đại diện cho giá trị dự đoán của biến mục tiêu, cho trước các giá trị của các biến được biểu diễn bởi đường đi từ nút gốc tới nút lá đó. Kỹ thuật học máy dùng trong cây 4 Trí Tuệ Nhân Tạo – Học Máy quyết định được gọi là học bằng cây quyết định, hay chỉ gọi với cái tên ngắn gọn là cây quyết định. Học bằng cây quyết định cũng là một phương pháp thông dụng trong khai phá dữ liệu. Khi đó, cây quyết định mô tả một cấu trúc cây, trong đó, các lá đại diện cho các phân loại còn cành đại diện cho các kết hợp của các thuộc tính dẫn tới phân loại đó. Một cây quyết định có thể được học bằng cách chia tập hợp nguồn thành các tập con dựa theo một kiểm tra giá trị thuộc tính . Quá trình này được lặp lại một cách đệ qui cho mỗi tập con dẫn xuất. Quá trình đệ qui hoàn thành khi không thể tiếp tục thực hiện việc chia tách được nữa, hay khi một phân loại đơn có thể áp dụng cho từng phần tử của tập con dẫn xuất. Một bộ phân loại rừng ngẫu nhiên (random forest) sử dụng một số cây quyết định để có thể cải thiện tỉ lệ phân loại. Cây quyết định cũng là một phương tiện có tính mô tả dành cho việc tính toán các xác suất có điều kiện. Cây quyết định có thể được mô tả như là sự kết hợp của các kỹ thuật toán học và tính toán nhằm hỗ trợ việc mô tả, phân loại và tổng quát hóa một tập dữ liệu cho trước. Dữ liệu được cho dưới dạng các bản ghi có dạng: 1 2 3 ( , ) ( , , , ., , ) k x y x x x x y = Biến phụ thuộc (dependant variable) y là biến mà chúng ta cần tìm hiểu, phân loại hay tổng quát hóa. 1 2 3 , , .x x x là các biến sẽ giúp ta thực hiện công việc đó. 2. Các khái niệm cơ bản 2.1. Cây quyết định: Là một mô hình dữ liệu mã hóa phân bố của nhãn lớp (cũng là y) theo các thuộc tính dùng để dự đoán. Đây là một đồ thị có hướng phi chu trình dưới dạng một cây. Nút gốc (nút nằm trên đỉnh) đại diện cho toàn bộ dữ liệu. Cây quyết định thông thường được sử dụng cho việc đạt được thông tin cho mục đính tạo quyết định. Cây quyết định bắt đầu với một nút gốc từ đó user nhận được những hành động. Từ nút này, user chia ra mỗi nút theo cách đệ qui theo giải thuật học cây quyết định. Kết quả cuối cùng là một cây quyết 5 Trí Tuệ Nhân Tạo – Học Máy định trong đó mỗi nhánh thể hiện một trường hợp có thể của quyết định và hệ quả của quyết định đó. 2.2. Ví dụ bài toán chơi tennis để giải thích cây quyết định Người quản lý của một câu lạc bộ chơi tennis gặp rắc rối chuyện các thành viên đến hay không đến. Có ngày ai cũng muốn chơi tennis nhưng số nhân viên câu lạc bộ lại không đủ phục vụ. Có hôm thì chẳng ai đến chơi, và câu lạc bộ lại thừa nhân viên. Mục tiêu của Người quản lý là tối ưu hóa số nhân viên phục vụ mỗi ngày bằng cách dựa vào thời tiết để đoán xem khi nào người ta sẽ đến chơi tennis. Để thực hiện điều đó, anh cần hiểu được tại sao khách hàng quyết định chơi và tìm hiểu xem có cách giải thích nào cho việc đó hay không. Vậy là trong hai tuần, anh ta thu thập thông tin về: Trời Outlook (quang cảnh), Temperature (Nhiệt độ), Humidity (Độ ẩm), Wind (Sức gió) với thuộc tính kết quả Target. Dữ liệu như sau: # Outlook Temperature Humidity Wind Target 1 Sunny Hot High Weak No 2 Sunny Hot High Strong No 3 Overcast Hot High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cool Normal Weak Yes 6 Rain Cool Normal Strong No 7 Overcast Cool Normal Strong Yes 8 Sunny Mild High Weak No 9 Sunny Cool Normal Weak Yes 10 Rain Mild Normal Weak Yes 11 Sunny Mild Normal Strong Yes 12 Overcast Mild High Strong Yes 13 Overcast Hot Normal Weak Yes 14 Rain Mild High Strong No 6 Trí Tuệ Nhân Tạo – Học Máy Sau đó, để giải quyết bài toán, người ta đã đưa ra một mô hình cây quyết định. Kết luận thứ nhất: nếu trời nhiều mây, người ta luôn luôn chơi tennis. Tiếp theo, ta lại chia nhóm trời nắng thành hai nhóm con. Ta thấy rằng khách hàng không muốn chơi golf nếu độ ẩm cao. Cuối cùng, ta chia nhóm trời có gió thành hai và thấy rằng khách hàng sẽ không chơi tennis nếu trời nhiều gió. Và đây là lời giải ngắn gọn cho bài toán mô tả bởi cây phân loại. Người quản lý phần lớn cho nhân viên nghỉ vào những ngày trời nắng và ẩm, hoặc những ngày gió mạnh. Vì hầu như sẽ chẳng có ai chơi trong những ngày đó. Vào những hôm khác, khi nhiều người sẽ đến chơi tennis, anh ta có thể thuê thêm nhân viên thời vụ để phụ giúp công việc. Kết luận là cây quyết định giúp ta biến một biểu diễn dữ liệu phức tạp thành một cấu trúc đơn giản hơn rất nhiều. 3. Các kiểu cây quyết định Cây quyết định còn có hai tên khác: • Cây hồi quy (Regression tree): ước lượng các hàm có giá trị là số thực thay vì được sử dụng cho các nhiệm vụ phân loại. (ví dụ: ước tính giá một ngôi nhà hoặc 7 Trí Tuệ Nhân Tạo – Học Máy khoảng thời gian một bệnh nhân nằm viện) • Cây phân loại (Classification tree): là một biến phân loại như: giới tính (nam hay nữ), kết quả của một trận đấu (thắng hay thua). 4. Ưu điểm cây quyết định • Cây quyết định dễ hiểu. Người ta có thể hiểu mô hình cây quyết định sau khi được giải thích ngắn. • Việc chuẩn bị dữ liệu cho một cây quyết định là cơ bản hoặc không cần thiết. Các kỹ thuật khác thường đòi hỏi chuẩn hóa dữ liệu, cần tạo các biến phụ (dummy variable) và loại bỏ các giá trị rỗng. • Cây quyết định có thể xử lý cả dữ liệu có giá trị bằng số và dữ liệu có giá trị là tên thể loại. Các kỹ thuật khác thường chuyên để phân tích các bộ dữ liệu chỉ gồm một loại biến. Chẳng hạn, các luật quan hệ chỉ có thể dùng cho các biến tên, trong khi mạng nơ-ron chỉ có thể dùng cho các biến có giá trị bằng số. • Cây quyết định là một mô hình hộp trắng. Nếu có thể quan sát một tình huống cho trước trong một mô hình, thì có thể dễ dàng giải thích điều kiện đó bằng logic Boolean. Mạng nơ-ron là một ví dụ về mô hình hộp đen, do lời giải thích cho kết quả quá phức tạp để có thể hiểu được. • Có thể thẩm định một mô hình bằng các kiểm tra thống kê. Điều này làm cho ta có thể tin tưởng vào mô hình. • Cây quyết định có thể xử lý tốt một lượng dữ liệu lớn trong thời gian ngắn. Có thể dùng máy tính cá nhân để phân tích các lượng dữ liệu lớn trong một thời gian đủ ngắn để cho phép các nhà chiến lược đưa ra quyết định dựa trên phân tích của cây quyết định. 8 Trí Tuệ Nhân Tạo – Học Máy Phần II: Thuật toán ID3 1. Thuật toán: Thuật toán ID3 do Ross Quinlan đề xuất dùng để xây dựng những cây quyết định thỏa các tính chất trên. Thuật toán tuân theo nguyên tắc dao cạo Occam để xây dựng những cây quyết định bằng cách ở mỗi bước kiểm tra, cố gắng chọn thuộc tính (nút nhánh) đơn giản nhất. Để xác định độ đơn giản của thuộc tính, ID3 sử dụng giá trị độ đo là entropy thông tin (độ hỗn loạn thông tin). Với một thuộc tính cho trước, một tập dữ liệu được chia thành n tập con với các tỷ lệ Pi tương ứng (ví dụ, với thuộc tính Target, tập dữ liệu huấn luyện được chia thành 2 tập con Yes với Po = 9/14 và tập con No với P;=5/14). Khi đó, entropy của tập dữ liệu trên thuộc tính được chọn là: 9 Trí Tuệ Nhân Tạo – Học Máy n H Ví dụ, entropy của tập dữ liệu tennis theo thuộc tính kết quả là: H = - 9/14 * log 2 9/14 - 5/14 * log 2 5/14 = 0,94 Entropy đo độ hỗn loạn của một tập. Entropy càng cao thì độ hỗn loạn của tập đó càng cao. Tập dữ liệu là hoàn toàn đồng nhất khi entropy = 0. Và trong trường hợp tập dữ liệu có 2 lớp, tập dữ liệu hoàn toàn hỗn loạn sẽ có entropy = 1. Thuật toán ID3: Bắt đầu với nút gốc, 1. Chọn A thuộc tính quyết định "tốt nhất" cho nút kế tiếp 2. Gán A là thuộc tính quyết định cho nút 3. Với mỗi giá trị của A, tạo nhánh con mới của nút 4. Phân loại các mẫu huấn luyện cho các nhánh 5. Nếu các mẫu huấn luyện trong một nhánh được phân loại hoàn toàn (đồng nhất một loại) thì NGƯNG, ta được một nút lá. Ngược lại, lặp với các nút nhánh mới. Thuộc tính tốt nhất ở đây là thuộc tính có entropy trung bình thấp nhất theo thuộc tính kết quả. Entropy trung bình của một thuộc tính bằng trung bình theo tỉ lệ của entropy các nhánh: 10 [...]... Tiếp cận thống kê và Luật Bayes Trong cách tiếp cận thống kê, lý thuyết quyết định được sử dụng để chọn giá trị kết xuất cho mẫu mới Theo lý thuyết quyết định, khi một mẫu mới x được cung cấp, giá trị của thuộc tính quyết định y là giá tri yk sao cho xác suất P(y = yk|x) là lớn nhất Ví dụ trong bài toán tennis, với mẫu #16 ta cần xác định hai giá trị xác xuất P(Target = Yes|#16) và P(Target = No|#16) và... RH(Hum,No) x RW(S,No) = 6/12 * 3/8 * 2/8 * 5/7 * 4/7 = 0,019 Vậy #16 thuộc về lớp No vì S(No) > S(Yes) 30 Trí Tuệ Nhân Tạo – Học Máy Phần V: Code xây dựng cây quyết định bằng thuật toán ID3 1 Giao diện: Kết quả cây định danh Dữ liệu có sẵn từ file input.txt Tạo cây định danh Chọn dữ liệu khác 31 Trí Tuệ Nhân Tạo – Học Máy 2 Code chương trình: using using using using using System; System.Collections; System.Data;... HNormal = - 2/2 * log22/2 – 0 = 0 AE (Humidity) = 0 Thuộc tính Humidity có entropy trung bình thấp nhất nên chọn làm nút nhánh Cây quyết định kết quả: 18 Trí Tuệ Nhân Tạo – Học Máy • Sau khi xây dựng cây, ta có thể rút ra các luật tương ứng bằng cách duyệt các đường đi trên cây từ nút gốc đến nút lá, mỗi đường đi ứng với một luật: L1: Nếu Outlook = Overcast thì chơi tennis L2: Nếu Outlook = Rain... thuộc tính quyết định Công thức tính Informatic Gain như sau: Gain(A) = Entropy(S) – Entropy(A) Trong đó: S là tập mẫu và A là một thuộc tính Entropy(S): độ hỗn loạn của tập S Entropy(A): độ hỗn loạn trung bình của thuộc tính A (cách tính như trên) Nguyên tắc thực hiện: tương tự trên ngoại trừ Gain lớn nhất 19 Trí Tuệ Nhân Tạo – Học Máy Phần II: Thuật toán QuinLan 1 Thuật toán: Quinlan quyết định thuộc... một cách tốt nhất Các thuộc tính này sẽ được chọn để rút ra luật cho dữ liệu Ngược lại, trong ILA, quá trình học xuất phát từ các thuộc tính quyết định ILA chia tập dữ liệu huấn luyện thành các tập con rời nhau, mỗi tập con là một phân lớp dựa trên thuộc tính quyết định Tiếp đến ILA sẽ xem xét trong từng phân lớp xem có thuộc tính nào (hoặc tổ hợp thuộc tính nào) có giá trị chỉ xuất hiện trong lớp đó... Bayes biểu diễn ánh xạ học dưới dạng một tập các giá 27 Trí Tuệ Nhân Tạo – Học Máy trị phân bố xác suất Các giá trị phân bố xác xuất được tính trong giai đoạn huấn luyện và được sử dụng để xác định giá trị quyết định cho những mẫu mới Thuật toán Naïve Bayes 1 Huấn luyện Thống kê (đếm) xác suất của các lớp yk P(yk) và các giá trị phân bố xác suất P(Ai=vij|yk) Để đơn giản ta ký hiệu RAi(vij, yk) là tỷ... hiện trong các lớp khác hay không Nếu có, những (tổ hợp) thuộc tính và giá trị đó sẽ được chọn làm đặc trưng phân lớp cho lớp đó Thuật toán ILA 1 Chia tập mẫu thành các bảng con ứng với thuộc tính quyết định 2 Với mỗi bảng con 3 Với mỗi tổ hợp thuộc tính có thể có (bắt đầu với số lượng = 1) 4 Tìm các giá trị chỉ xuất hiện ở bảng con này mà không xuất hiện ở các bảng con khác 5 (Nếu có nhiều tổ hợp... VHumidity(High) = (1/2, 1/2) VHumidity(Normal) = (2/3, 1/3) VWind(Weak) = (2/3, 1/3) VWind(Strong) = (0/2, 2/2) = (0, 1) { vector đơn vị} Thuộc tính Wind có vector đơn vị nên ta chọn phân hoạch Vậy, cây định danh cuối cùng của chúng ta sẽ như sau : Phần IV: Thuật toán học quy nạp (ILA) 23 Trí Tuệ Nhân Tạo – Học Máy Thuật toán học quy nạp ILA đưa ra hướng tiếp cận ngược lại so với thuật toán ID3 Trong... tính hơn: Giá trị P(x) là như nhau đối với mọi phân lớp nên ta chỉ cần so sánh từ số của phân số trên Một lần nữa, giá trị P(x|y=yk) (gọi là phân số của dữ liệu trong phân lớp) cũng khó tính toán Giả định độc lập có điều kiện giữa các thuộc tính (Naïve) cho phép ta tính phân bố xác suất của mẫu dữ liệu thông qua phân bố xác suất của từng giá trị thuộc tính thành phần: Ví dụ với #16, ta có thể tính:... Attribute attribute { get { return mAttribute; } } public TreeNode getChildByBranchName(string branchName) { int index = mAttribute.indexValue(branchName); return (TreeNode)mChilds[index]; } } //Xây dựng cây public class DecisionTreeID3 { private DataTable mSamples; private int mTotalPositives = 0; private int mTotal = 0; private string mTargetAttribute = "Target"; private double mEntropySet = 0.0; private