Kết hợp giải thuật di truyền với phân cụm loại trừ trong tối ưu hóa tham số điều khiển - Trần Mạnh Tuấn

Bài báo đã trình bày một kỹ thuật thiết kế chuẩn hóa dữ liệu đầu vào cho hệ điều khiển học thông qua các đặc trƣng của đối tƣợng để hình thành hệ luật. Dữ liệu thu đƣợc từ các tri thức trong thế giới thực, phát hiện những dữ liệu cần thiết sau chuẩn hóa sẽ trợ giúp cho quá trình điều khiển thu đƣợc kết quả đáng tin cậy. Thông qua bài báo các tác giả đã đề xuất một công cụ khai thác có hiệu quả từ dữ liệu thông qua phân cụm và giải thuật di truyền.

pdf6 trang | Chia sẻ: thucuc2301 | Lượt xem: 590 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Kết hợp giải thuật di truyền với phân cụm loại trừ trong tối ưu hóa tham số điều khiển - Trần Mạnh Tuấn, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 87 KẾT HỢP GIẢI THUẬT DI TRUYỀN VỚI PHÂN CỤM LOẠI TRỪ TRONG TỐI ƢU HÓA THAM SỐ ĐIỀU KHIỂN Trần Mạnh Tuấn1*, Nguyễn Thị Linh1, Vũ Đình Minh2 Trường ĐH CNTT&TT, 2Trường CĐ Công nghiệp Thái Nguyên – ĐHTN TÓM TẮT Dữ liệu trong các thiết bị điều khiển thƣờng bị nhiễu bởi nhiều loại dữ liệu khác nhau. Việc hiệu chỉnh, tinh chỉnh và kiểm tra dữ liệu dùng trong các hệ thống điều khiển là cần thiết. Nghiên cứu này đề xuất phƣơng pháp phân cụm loại trừ và giải thuật di truyền trong trích lọc dữ liệu từ một tập dữ liệu ban đầu. Thực hiện phân cụm để loại bỏ phần dƣ thừa, hình thành các luật làm tri thức đầu vào cho hệ điều khiển. Giải thuật di truyền là công cụ tìm kiếm, xác định các giá trị tối ƣu cho tập tham số điều khiển. Từ khóa: Giải thuật di truyền, phân cụm loại trừ, trích lọc dữ liệu, hệ điều khiển, tham số điều khiển. MỞ ĐẦU* Mặc dù khả năng thực hiện của mô hình phụ thuộc rất nhiều vào chính bản thân mô hình, nhƣng có một thực tế rằng dữ liệu đóng một vai trò rất quan trọng trong xây dựng các mô hình chất lƣợng. Điều này càng đặc thù hơn cho một mô hình định hƣớng dữ liệu. Dữ liệu nhiễu sẽ cho kết quả trong một mô hình xây dựng không phù hợp. Khi đó, các mô hình điều khiển cần dữ liệu đƣợc chuẩn hóa. Nhƣ vậy, kết quả thu đƣợc từ mô hình điều khiển sử dụng dữ liệu chuẩn sẽ đƣa ra dự đoán tốt và đáng tin cậy. Trong các yêu cầu đặt ra cho quá trình phân cụm thì yêu cầu về độ chính xác luôn đƣợc đặt ra hàng đầu, ngoài ra sự kết hợp các thuật toán phân cụm và giải thuật di truyền còn đòi hỏi thỏa mãn đƣợc tính tối ƣu của các luật đƣợc sử dụng. Vì vậy một cách tiếp cận khác mà bài báo nêu ra đó là sử dụng phân cụm kết hợp với giải thuật di truyền để chuẩn hóa dữ liệu cho điểu khiển. Bài báo đƣợc tổ chức nhƣ sau: Phần 2 trình bày về hệ thống suy luận mờ, phƣơng pháp phân cụm và giới thiệu một số thuật toán phân cụm. Phần 3 trình bày về sử dụng giải thuật di truyền để tối ƣu hóa các luật đƣợc hình thành sau quá trình phân cụm. Cuối cùng, phần 4 đƣa ra kết quả cài đặt thực nghiệm chƣơng trình. * Tel: 098 3 668 841; Email: tmtuan@ictu.edu.vn MỘT SỐ VẤN ĐỀ CƠ SỞ Hệ thống suy luận mờ Giả sử với tập dữ liệu có p đầu vào và q đầu ra trong hệ luật mờ. Theo Mamdani[2] luật thứ i trong hệ gồm k luật đƣợc viết: Ri: If x1 is iA1 and x2 is iA2 and .. and xp is i pA then y1 is iC1 and y2 is iC 2 and...and yq is i qC Trong đó: x j là các biến vào i jA là giá trị ngữ nghĩa của biến đầu vào yj là các biến ra i jC là giá trị ngữ nghĩa của biến đầu ra Khi K = 7, hàm thuộc với các giá trị ngữ nghĩa của hệ thống với 2 biến vào và một biến ra đƣợc miêu tả trên hình 2-1 và hình 2-2: Hình 2-1: Các giá trị ngữ nghĩa của biến đầu vào Các giá trị ngữ nghĩa của biến đầu ra trên hình 2-2: Hình 2-2: Các giá trị ngữ nghĩa của biến đầu ra C71 Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 88 Với hệ hai đầu vào và một đầu ra gồm 7 giá trị ngôn ngữ, thì sẽ có 72 = 49 luật cho xây dựng hệ suy diễn mờ. Bảng hệ thống luật mờ cho xây dựng hệ suy diễn mờ có thể thấy trên bảng 2-1: A1 A2 A3 A4 A5 A6 A7 A1 C7 C7 C7 C7 C7 C7 C7 A2 C7 C6 C6 C6 C6 C6 C6 A3 C7 C6 C5 C5 C5 C5 C5 A4 C7 C6 C5 C4 C4 C4 C4 A5 C7 C6 C5 C4 C3 C3 C3 A6 C7 C6 C5 C4 C3 C2 C2 A7 C7 C6 C5 C4 C3 C2 C1 Bảng 2-1. Hệ thống luật mờ cho xây dựng hệ suy diễn mờ Phƣơng pháp phân cụm Các thuật toán phân cụm thƣờng đƣợc biết tới nhƣ một cách tổ chức và phân loại dữ liệu hợp lý. Kết quả của phân cụm là một sự phân chia dữ liệu thành các nhóm tƣơng đồng. Sự phân chia không gian nhận đƣợc từ quá trình phân chia dữ liệu. Mỗi luật tƣơng ứng với một cụm trong đó các tập mờ không đƣợc chia sẻ bởi tập các luật mà với số chiều cho trƣớc, mỗi tập mờ đƣợc gắn với một luật duy nhất. Các tập mờ kết quả thƣờng rất khó để biểu diễn một cách rõ ràng. * Một số thuật toán phân cụm cứng + Thuật toán K-Means [2] K-Means lặp lại nhiều lần quá trình bố trí lại vị trí của đối tƣợng dữ liệu để phân hoạch một tập dữ liệu thành K cụm và cực tiểu địa phƣơng giá trị bình phƣơng trung bình khoảng cách giữa các đối tƣợng tới tâm cụm của nó. Cụ thể hơn, với tập dữ liệu   1 N i i X x   , d ix  thuật toán K-Means tạo ra K phân hoạch   1 K h h X  của X sao cho nếu   1 K h h   đại diện cho K tâm thì hàm mục tiêu sau:     K h Xx hikmeans i xE 1 2  đạt cực tiểu địa phƣơng. Thuật toán K-Means đƣợc thực hiện qua các bƣớc sau: (1). Khởi tạo các cụm: các tâm ban đầu  K hh 1 )0(   đƣợc chọn ngẫu nhiên (2). Lặp cho tới khi hội tụ Gán cụm: Gán mỗi đối tƣợng dữ liệu x vào cụm h* (tức là tập  K h t h X 1 )1( *   ) với h* = argmin 2 )(t hx  Ƣớc lƣợng tâm:     )1()1( )1( 1 t hXxt h t h x X  t = t+1 + Thuật toán K-Medoids Thuật toán K-Medoids có khả năng khắc phục đƣợc nhiễu bằng cách chọn đối tƣợng ở gần tâm cụm nhất làm đại diện cho cụm đó (medoid). Thuật toán K-Medoids đƣợc thực hiện qua các bƣớc sau: (1). Chọn K đối tƣợng bất kỳ trong N đối tƣợng ban đầu làm các medoid ban đầu (2). Lặp cho tới khi hội tụ - Gán mỗi đối tƣợng còn lại vào cụm có medoid gần nhất với nó - Thay thế medoid hiện tại bằng một đối tƣợng không phải là medoid sao cho chất lƣợng phân cụm đƣợc cải thiện (Chất lƣợng đƣợc đánh giá sử dụng hàm chi phí, hàm tính độ phi tƣơng tự giữa một đối tƣợng và medoid của cụm chứa đối tƣợng đó). K-Medoids tỏ ra hiệu quả hơn K-Means trong trƣờng hợp dữ liệu có nhiễu hoặc đối tƣợng ngoại lai (Outlier). Nhƣng so với K-Means thì K-Medoids có độ phức tạp tính toán lớn hơn. Cả hai thuật toán trên để có nhƣợc điểm chung là số lƣợng cụm K đƣợc cung cấp bởi ngƣời dùng. Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 89 * Thuật toán phân cụm mờ C – Means (FCM) [5] FCM đƣợc giới thiệu bởi Dunn vào năm 1973. Bezdek đã chứng minh các tính chất của nó và đề xuất tiêu chuẩn hợp lệ phân cụm đầu tiên. Mỗi n cặp dữ liệu thuộc về một trong c nhóm với một hệ số thành viên, iku thể hiện mức độ thuộc của mẫu dữ liệu k trong cụm i. Cho 2 ikD là khoảng cách giữa cặp dữ liệu k và cụm i, về cơ bản đƣợc xác định theo chuẩn Euclide và tổng quát hơn là:    TikikAikik vxAvxvxD  22 Trong đó kx cặp dữ liệu thứ k đƣợc dùng cho việc phân cụm, A là một ma trận đối xứng, xác định dƣơng và iv là một nguyên mẫu của cụm. Cho U là ma trận hệ số iku và V ma trận tọa độ trung tâm. Thuật toán sinh ra U và V làm cực tiểu hàm tổn thất sau:    c i ik m ik n k FCM DuJ 1 2 1 (1) Với ràng buộc xác suất:    c i ik nku 1 .,...,1;1 và 1m là mũ mờ. Sự tối ƣu hàm trên đƣợc thực hiện bằng một thủ tục tối ƣu lặp. Đầu tiên, các hệ số iku đƣợc khởi tạo ngẫu nhiên, sau đó, tại mỗi bƣớc, hai thao tác sau đƣợc thực hiện thành công: (1). Tính toán các trung tâm cụm mờ iv , giả sử các bậc iku là các hằng số, dùng phƣơng trình sau:     n k m ik n k k m ik i u xu v 1 1 (2). Tính toán mức độ thuộc iku , giả sử các trung tâm iv là các vector hằng, dùng phƣơng trình:             c j m jk ik ik D D u 1 1 2 1 Các thao tác trên đƣợc lặp lại cho đến khi hội tụ, nghĩa là các tọa độ trung tâm là ổn định đối với sai số đã cho. Thuật toán phân cụm FCM thích hợp với các cụm với hình dạng và kích thƣớc có thể so sánh đƣợc (là hình cầu khi dùng ma trận đơn vị) hoặc khi các cụm đƣợc phân chia rõ ràng. Nguyên mẫu cụm là các điểm dữ liệu đƣợc chọn làm trung tâm cụm. Input : Số cụm k và tham số mũ m cho hàm tiêu chuẩn J OutPut: c cụm dữ liệu sao cho hàm mục tiêu (1) đạt giá trị tối thiểu. Begin (1). Nhập giá trị cho hai tham số k (1<k<n), m ),1(  và khởi tạo ma trận mẫu các tâm V (0) , t=0 (2). Repeat (2.1). t = t + 1; (2.2). Tính ma trận phân hoạch mờ Ut theo công thức (2) (2.3). Cập nhật các trọng tâm V(t) = [v1 (t) , v2 (t) , , vk (t) ] dựa vào (3) và ma trận Uj; (3). Until (|| U (t+1) – U(t) ||F   ); (4). Trình diễn các cụm kết quả. End. Trong đó:  i j ijF uU 22 và tham số  đƣợc cho trƣớc. Việc chọn các tham số cụm có ảnh hƣởng lớn đến kết quả phân cụm, tham số này thƣờng đƣợc chọn một cách ngẫu nhiên hoặc theo kinh nghiệm. Chƣa có quy tắc nào đƣợc đƣa ra để lựa chọn tham số m sao cho việc phân cụm là hiệu quả nhất, thông thƣờng ngƣời ta chọn m = 2. Khi biểu diễn đối tƣợng mờ, mỗi thuộc tính có 6 đặc trƣng là: {very small, small, medium, large, very large, ignore}. Khi đó luật mờ Ri, tƣơng ứng với mẫu xi=(xi1, xi2, . . ., xin) thuộc vào lớp j với độ phụ thuộc là uij có dạng sau: if xi1 is Ai1 and xi2 is Ai2 and and xin is Ain then xi thuộc lớp j với độ phụ thuộc uij. Trong đó Aij={very small, small, medium, large, very large, ignore} Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 90 SỬ DỤNG GIẢI THUẬT DI TRUYỀN CHO TỐI ƢU HÓA QUÁ TRÌNH PHÂN CỤM Nhƣ vậy, sau khi đã xác định các cụm từ dữ liệu và hàm thuộc của các cụm, ta có luật mờ nhƣ sau: R1: If x1 is 1 1A and x2 is 1 2A then y là Cụm 1 R2: If x1 is 2 1A and x2 is 2 2A then y là Cụm 2 .. RK: If x1 is 1 kA and x2 is 2 kA then y là Cụm k Mã hóa Mã hóa là một quá trình chuyển đổi hệ suy diễn mờ thành các thông số không gian một chiều của các cá thể. Nói một cách khác, cá thể (là một chuỗi giá trị) chứa các thông số cho việc xây dựng hệ suy lụân mờ. Các luật mờ đƣợc mô tả dƣới dạng If Then với phần điều kiện và phần kết quả là các hàm thuộc dạng tam giác. Mã hóa cá thể Khi dùng giải thuật di truyền tìm nghiệm cực đại f(S) ta cần tạo ra một quần thể với số cá thể nhất định. Mỗi cá thể đƣợc mã hóa bằng một chuỗi các bit (0 hoặc 1), mỗi bit biểu diễn một luật. Khi đó chiều dài chuỗi bit S là số lƣợng đầy đủ các luật của SAll, S=s1s2 sm Biểu diễn gen di truyền cá thể hệ luật Cách biểu diễn cá thể nhƣ trên vừa dƣ thừa vừa không thực hiện đƣợc đối với các tập dữ liệu đa đặc trƣng. Do vậy cần có sự mã hóa các cá thể để có thể thực hiện đƣợc mục tiêu tìm bộ luật với tối thiểu các luật và phân lớp đúng theo các đặc trƣng mẫu học bằng cách thực hiện nhƣ sau: - Mỗi cá thể S chỉ chứa tối đa L luật (L << M với M = 4L nếu có 4 đặc trƣng) - Mỗi luật Ri trong chuỗi cá thể S chiếm một số lƣợng các cặp bit. Một cặp bit thể hiện luật có trong S hay không. Các cặp bit tiếp theo thể hiện tập mờ của từng biến đặc trƣng trong luật Ri. - Một cá thể của bộ luật S có L luật đƣợc biểu diễn dƣới dạng một chuỗi gồm liên tiếp L chuỗi Si: S = S1S2SL - Việc giải mã các luật đƣợc tiến hành nhƣ sau: S = {Si=si1si2si(N+1) sao cho si1≠00; i = 1, 2,, L} Sau khi mã hóa các cá thể, các phép toán trong giải thuật di truyền (đột biến, ghép và chọn lọc) đƣợc sử dụng. Phép đột biến Đột biến là phép toán nền tảng trong giải thuật di truyền, trong đó từng cá thể Sh đƣợc đột biến nhƣ sau: - si1 ≠ 00  si1 = 00 với xác suất đột biến pm1 (xác suất luật i không tham gia bộ luật) - si1=00  si1 ≠ 00 với xác suất đột biến pm2 (xác suất luật i tham gia bộ luật) - Các bit tiếp theo đƣợc đột biến với xác suất pm3 Với các xác suất đƣợc chọn nhƣ sau: - Chọn pm1<<pm2,pm3: làm tăng số luật hiện diện trong mỗi cá thể từ đó tăng khả năng tìm ra cá thể phân lớp đúng đặc trƣng của mẫu học. - Khi đã có cá thể phân lớp đúng mẫu học, chọn pm1>>pm2,pm3 để giảm số luật hiện diện trong mỗi cá thể nhằm tìm ra cá thể tốt, từ đó nhận đƣợc số tối thiểu các luật mà vẫn phân lớp đúng mẫu học. Phép lai ghép Là một phép toán quan trọng trong GA để tìm kiếm các tính chất hữu ích của cha mẹ. Mỗi cặp cá thể Sh, Sk đƣợc thực hiện lai ghép đều với xác suất pc nhƣ sau: - Chọn các cặp bit si1, i = 1, 2,, L với xác suất 0.5, nếu bit si1 đƣợc chọn thì các cặp bit tiếp theo cũng đƣợc chọn (chọn đủ một luật). - Trao đổi các cặp bit đã chọn giữa 2 cá thể S h , S k . - Hai cá thể con cháu mới do lai tạo sẽ đƣợc thay thế cho hai cá thể cha mẹ trong thế hệ kế tiếp. Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 91 Phép chọn lọc Là quá trình cá thể đƣợc chọn dựa vào giá trị thích nghi của nó đối với mục tiêu cần đạt đƣợc bằng cách tạo một vòng quay đƣợc phân chia thành nhiều phần, mỗi phần thể hiện giá trị thích nghi của mỗi cá thể. Khi vòng quay quay, có một viên bi với giá trị ngẫu nhiên nhỏ hơn tổng các giá trị thích nghi di chuyển theo hƣớng ngƣợc lại. Khi vòng quay ngừng, viên bi dừng trên phần chia nào thì cá thể đó đƣợc chọn. Thuật toán đƣợc mô tả nhƣ sau: - Tính tổng:    L i i taSUM 1 ))((  - Chọn một giá trị để so sánh: Sel [0;SUM] - Khởi tạo i = 1; - Kiểm tra: While (Sel > ))(( tai   ) { Sel = Sel - ))(( tai   ; i = i+1; } select()=i; /* phần tử thứ i đƣợc chọn Chiến lƣợc phần tử ƣu tú: Luôn luôn chọn cá thể có giá trị thích nghi cao nhất trong thế hệ P(t) để đƣa trực tiếp vào thế hệ kế tiếp P(t+1) khi thực hiện phép toán chọn lọc nếu nó chƣa đƣợc chọn để đảm bảo các thế hệ kế tiếp không đánh mất truyền thống thích nghi tốt nhất và nhờ đó cải thiện sự tiến hóa một cách liên tục. Hiệu chỉnh độ tin cậy trong thuật giải GA Để tăng khả năng phân cụm đúng 100% các mẫu học với chỉ một số ít luật, cần phải thay đổi độ tin cậy của mỗi luật thông qua sự thƣởng, phạt từng luật bằng cách đƣa thêm một thủ tục hiệu chỉnh độ tin cậy vào quá trình thực hiện giải thuật di truyền. Với một mẫu dữ liệu học Xp và với số lần lặp xác định, độ tin cậy đƣợc tăng hay giảm phụ thuộc vào việc Xp đƣợc phân cụm đúng hay sai. Thủ tục nhƣ sau: Với mỗi mẫu dữ liệu học Xp, p = 1, , P thực hiện: - Xếp lớp cho Xp: • Tính độ tƣơng thích của mẫu Xp đối với từng cụm ci: k = max{uj1(xp1) uj2(xp2) ujN(xpN)CFi|RjS,CFj=ci} • Nếu  i≠j mà Ci = Cj thì Xp không xếp cụm đƣợc Nếu ko = max{k ,k = 1, , K } thì xếp mẫu Xp vào cụm Cko - Dùng công thức sau để xác định luật Ri chịu trách nhiệm phân lớp mẫu Xp i1 (xp1) i2(xp2) iN(xpN). CFi = max{j1 (xp1) j2(xp2) jN(xpN). CFj; RjS } Trong đó: ij(xpj): là hàm thành viên tập mờ Aij, i = 1, 2, , n; j= 1, 2, N. Nếu luật Ri xếp đúng lớp cho Xp thì tăng độ tin cậy của nó theo công thức: CFi = CFi + 1. (1- CFi) Nếu luật Ri xếp sai lớp cho Xp thì giảm độ tin cậy của nó theo công thức: CFi = CFi - 2.CFi Với: 1 và 2 là các hằng số trong khoảng (0;1). Đánh giá: Ƣu điểm: Làm tăng khả năng tìm ra cá thể có các luật phân lớp đúng 100% mẫu học. Nhƣợc điểm: Cá thể tốt nhất trong thế hệ trƣớc qua phép chọn phần tử ƣu tú có thể không còn là cá thể tốt nhất ở thế hệ sau do độ tin cậy các luật của nó đã bị điều chỉnh. KẾT QUẢ THỰC NGHIỆM Với dữ liệu đầu vào là một bảng dữ liệu (bảng 2-1): Hình 4-1: Dữ liệu nhập ban đầu Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92 92 Hình 4-2: Kết quả sau phân cụm Khi đó dựa trên bảng mẫu ban đầu ta chia thành 2 bảng cơ bản. Sử dụng giải thuật di truyền ta tối ƣu hóa các giá trị thuộc tính thu đƣợc bảng mới hình thành luật dƣới dạng (hình 4-3): Hình 4-3: Kết quả tối ưu hóa các giá trị thuộc tính Từ đó hình thành lên các luật (với 4 luật tƣơng ứng với 8 giá trị thuộc tính ở bảng trên). So với việc hình thành từ các mẫu của 8 giá trị thuộc tính thì ta hình thành 8 luật. Do vậy phƣơng pháp trên có số luật ít hơn. KẾT LUẬN Bài báo đã trình bày một kỹ thuật thiết kế chuẩn hóa dữ liệu đầu vào cho hệ điều khiển học thông qua các đặc trƣng của đối tƣợng để hình thành hệ luật. Dữ liệu thu đƣợc từ các tri thức trong thế giới thực, phát hiện những dữ liệu cần thiết sau chuẩn hóa sẽ trợ giúp cho quá trình điều khiển thu đƣợc kết quả đáng tin cậy. Thông qua bài báo các tác giả đã đề xuất một công cụ khai thác có hiệu quả từ dữ liệu thông qua phân cụm và giải thuật di truyền. TÀI LIỆU THAM KHẢO [1]. Mohammad GhasemiGol, Hadi Saoghi Yazdi, Reza Monsefi, A New Hierarchical Clustering Algorithm on Fuzzy Data (FHCA), International Journal of coputer and electrical engineering, Vol.2, No.1, February, 2010. [2]. C.D.Doan, S.Y.Liong and Dulakshi S.K.Karunasinghe, Derivation of effective and effcient data set with subtractive clustering method and genetic algorithm, Journal of Hydroinfomatics, 07.4.2005 [3]. Lothar M.Schmitt, Fundamental Study Theory of genetic algorithms, Thẻoetical Computer Science 59 (2001) 1-61 [4]. Gunter Rudolph, Convergence Analysis of Canonical Genetic Algorithms, IEEE transaction on neural networks, vol.5, No.1, January 1994 [5]. Mohanad Alata, Mohammad Molhim, and Abdullah Ramini, Optimizing of Fuzzy C-Means Clustering Algorithm Using GA, World Academy of Science, Engineering and Technology, pages 224-229, 39 2008, ABSTRACT THE COMBINATION BETWEEN GENETIC ALGORITHM AND SUBTRACTIVE CLUSTERING IN OPTIMATION FOR CONTROL PARAMETERS Tran Manh Tuan1*, Nguyen Thi Linh1, Vu Dinh Minh2 1College of Information Technology and Communication, 2College of Technology – ĐHTN Data in control devices are often affected by noises from many kinds of different data. It’s necessary to adjust and to test data used in control systems. This aproach presents the combination between subtractive clustering method and genetic algorithm in data filter from given data set. Clustering is used to reject the redundance, to generate rules that are input knowlegde in control system. Genetic algorithm is used for searching, defining the optimal parameters for control parameter set. Key words: Genetic algorithm, Subtractive clustering, data filter, control system, control parameter. * Tel: 098 3 668 841; Email: tmtuan@ictu.edu.vn Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên

Các file đính kèm theo tài liệu này:

  • pdfbrief_33295_37119_3182012153621_split_15_4294_2052376.pdf