Kết hợp giải thuật di truyền với phân cụm loại trừ trong tối ưu hóa tham số điều khiển - Trần Mạnh Tuấn
Bài báo đã trình bày một kỹ thuật thiết kế
chuẩn hóa dữ liệu đầu vào cho hệ điều khiển
học thông qua các đặc trƣng của đối tƣợng để
hình thành hệ luật. Dữ liệu thu đƣợc từ các tri
thức trong thế giới thực, phát hiện những dữ
liệu cần thiết sau chuẩn hóa sẽ trợ giúp cho
quá trình điều khiển thu đƣợc kết quả đáng tin
cậy. Thông qua bài báo các tác giả đã đề xuất
một công cụ khai thác có hiệu quả từ dữ liệu
thông qua phân cụm và giải thuật di truyền.
6 trang |
Chia sẻ: thucuc2301 | Lượt xem: 699 | Lượt tải: 0
Bạn đang xem nội dung tài liệu Kết hợp giải thuật di truyền với phân cụm loại trừ trong tối ưu hóa tham số điều khiển - Trần Mạnh Tuấn, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
87
KẾT HỢP GIẢI THUẬT DI TRUYỀN VỚI PHÂN CỤM LOẠI TRỪ TRONG TỐI
ƢU HÓA THAM SỐ ĐIỀU KHIỂN
Trần Mạnh Tuấn1*, Nguyễn Thị Linh1, Vũ Đình Minh2
Trường ĐH CNTT&TT, 2Trường CĐ Công nghiệp Thái Nguyên – ĐHTN
TÓM TẮT
Dữ liệu trong các thiết bị điều khiển thƣờng bị nhiễu bởi nhiều loại dữ liệu khác nhau. Việc hiệu
chỉnh, tinh chỉnh và kiểm tra dữ liệu dùng trong các hệ thống điều khiển là cần thiết. Nghiên cứu
này đề xuất phƣơng pháp phân cụm loại trừ và giải thuật di truyền trong trích lọc dữ liệu từ một
tập dữ liệu ban đầu. Thực hiện phân cụm để loại bỏ phần dƣ thừa, hình thành các luật làm tri thức
đầu vào cho hệ điều khiển. Giải thuật di truyền là công cụ tìm kiếm, xác định các giá trị tối ƣu cho
tập tham số điều khiển.
Từ khóa: Giải thuật di truyền, phân cụm loại trừ, trích lọc dữ liệu, hệ điều khiển, tham số
điều khiển.
MỞ ĐẦU*
Mặc dù khả năng thực hiện của mô hình phụ
thuộc rất nhiều vào chính bản thân mô hình,
nhƣng có một thực tế rằng dữ liệu đóng một
vai trò rất quan trọng trong xây dựng các mô
hình chất lƣợng. Điều này càng đặc thù hơn
cho một mô hình định hƣớng dữ liệu. Dữ liệu
nhiễu sẽ cho kết quả trong một mô hình xây
dựng không phù hợp. Khi đó, các mô hình
điều khiển cần dữ liệu đƣợc chuẩn hóa. Nhƣ
vậy, kết quả thu đƣợc từ mô hình điều khiển
sử dụng dữ liệu chuẩn sẽ đƣa ra dự đoán tốt
và đáng tin cậy. Trong các yêu cầu đặt ra cho
quá trình phân cụm thì yêu cầu về độ chính
xác luôn đƣợc đặt ra hàng đầu, ngoài ra sự kết
hợp các thuật toán phân cụm và giải thuật di
truyền còn đòi hỏi thỏa mãn đƣợc tính tối ƣu
của các luật đƣợc sử dụng. Vì vậy một cách
tiếp cận khác mà bài báo nêu ra đó là sử dụng
phân cụm kết hợp với giải thuật di truyền để
chuẩn hóa dữ liệu cho điểu khiển.
Bài báo đƣợc tổ chức nhƣ sau: Phần 2 trình
bày về hệ thống suy luận mờ, phƣơng pháp
phân cụm và giới thiệu một số thuật toán phân
cụm. Phần 3 trình bày về sử dụng giải thuật di
truyền để tối ƣu hóa các luật đƣợc hình thành
sau quá trình phân cụm. Cuối cùng, phần 4
đƣa ra kết quả cài đặt thực nghiệm
chƣơng trình.
*
Tel: 098 3 668 841; Email: tmtuan@ictu.edu.vn
MỘT SỐ VẤN ĐỀ CƠ SỞ
Hệ thống suy luận mờ
Giả sử với tập dữ liệu có p đầu vào và q đầu
ra trong hệ luật mờ. Theo Mamdani[2] luật
thứ i trong hệ gồm k luật đƣợc viết:
Ri: If x1 is
iA1 and x2 is
iA2 and .. and xp is
i
pA then y1 is
iC1 and y2 is
iC 2 and...and yq is
i
qC
Trong đó:
x j là các biến vào
i
jA là giá trị ngữ nghĩa của biến đầu vào
yj là các biến ra
i
jC là giá trị ngữ nghĩa của biến đầu ra
Khi K = 7, hàm thuộc với các giá trị ngữ
nghĩa của hệ thống với 2 biến vào và một biến
ra đƣợc miêu tả trên hình 2-1 và hình 2-2:
Hình 2-1: Các giá trị ngữ nghĩa của biến đầu vào
Các giá trị ngữ nghĩa của biến đầu ra trên
hình 2-2:
Hình 2-2: Các giá trị ngữ nghĩa của biến đầu ra C71
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
88
Với hệ hai đầu vào và một đầu ra gồm 7 giá
trị ngôn ngữ, thì sẽ có 72 = 49 luật cho xây
dựng hệ suy diễn mờ. Bảng hệ thống luật mờ
cho xây dựng hệ suy diễn mờ có thể thấy trên
bảng 2-1:
A1 A2 A3 A4 A5 A6 A7
A1 C7 C7 C7 C7 C7 C7 C7
A2 C7 C6 C6 C6 C6 C6 C6
A3 C7 C6 C5 C5 C5 C5 C5
A4 C7 C6 C5 C4 C4 C4 C4
A5 C7 C6 C5 C4 C3 C3 C3
A6 C7 C6 C5 C4 C3 C2 C2
A7 C7 C6 C5 C4 C3 C2 C1
Bảng 2-1. Hệ thống luật mờ cho xây dựng hệ suy
diễn mờ
Phƣơng pháp phân cụm
Các thuật toán phân cụm thƣờng đƣợc biết tới
nhƣ một cách tổ chức và phân loại dữ liệu
hợp lý. Kết quả của phân cụm là một sự phân
chia dữ liệu thành các nhóm tƣơng đồng. Sự
phân chia không gian nhận đƣợc từ quá trình
phân chia dữ liệu. Mỗi luật tƣơng ứng với
một cụm trong đó các tập mờ không đƣợc
chia sẻ bởi tập các luật mà với số chiều cho
trƣớc, mỗi tập mờ đƣợc gắn với một luật duy
nhất. Các tập mờ kết quả thƣờng rất khó để
biểu diễn một cách rõ ràng.
* Một số thuật toán phân cụm cứng
+ Thuật toán K-Means [2]
K-Means lặp lại nhiều lần quá trình bố trí lại
vị trí của đối tƣợng dữ liệu để phân hoạch một
tập dữ liệu thành K cụm và cực tiểu địa
phƣơng giá trị bình phƣơng trung bình
khoảng cách giữa các đối tƣợng tới tâm cụm
của nó. Cụ thể hơn, với tập dữ liệu
1
N
i i
X x
, d
ix thuật toán K-Means
tạo ra K phân hoạch
1
K
h h
X
của X sao cho
nếu
1
K
h h
đại diện cho K tâm thì hàm
mục tiêu sau:
K
h
Xx hikmeans i
xE
1
2
đạt cực tiểu
địa phƣơng.
Thuật toán K-Means đƣợc thực hiện qua các
bƣớc sau:
(1). Khởi tạo các cụm: các tâm ban đầu
K
hh 1
)0(
đƣợc chọn ngẫu nhiên
(2). Lặp cho tới khi hội tụ
Gán cụm: Gán mỗi đối tƣợng dữ liệu x vào
cụm h* (tức là tập K
h
t
h
X
1
)1(
*
) với h* =
argmin
2
)(t
hx
Ƣớc lƣợng tâm:
)1()1(
)1( 1
t
hXxt
h
t
h x
X
t = t+1
+ Thuật toán K-Medoids
Thuật toán K-Medoids có khả năng khắc phục
đƣợc nhiễu bằng cách chọn đối tƣợng ở gần
tâm cụm nhất làm đại diện cho cụm đó
(medoid). Thuật toán K-Medoids đƣợc thực
hiện qua các bƣớc sau:
(1). Chọn K đối tƣợng bất kỳ trong N đối
tƣợng ban đầu làm các medoid ban đầu
(2). Lặp cho tới khi hội tụ
- Gán mỗi đối tƣợng còn lại vào cụm có
medoid gần nhất với nó
- Thay thế medoid hiện tại bằng một đối
tƣợng không phải là medoid sao cho chất
lƣợng phân cụm đƣợc cải thiện (Chất lƣợng
đƣợc đánh giá sử dụng hàm chi phí, hàm tính
độ phi tƣơng tự giữa một đối tƣợng và
medoid của cụm chứa đối tƣợng đó).
K-Medoids tỏ ra hiệu quả hơn K-Means trong
trƣờng hợp dữ liệu có nhiễu hoặc đối tƣợng
ngoại lai (Outlier). Nhƣng so với K-Means thì
K-Medoids có độ phức tạp tính toán lớn hơn.
Cả hai thuật toán trên để có nhƣợc điểm
chung là số lƣợng cụm K đƣợc cung cấp bởi
ngƣời dùng.
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
89
* Thuật toán phân cụm mờ C – Means
(FCM) [5]
FCM đƣợc giới thiệu bởi Dunn vào năm
1973. Bezdek đã chứng minh các tính chất
của nó và đề xuất tiêu chuẩn hợp lệ phân cụm
đầu tiên. Mỗi n cặp dữ liệu thuộc về một
trong c nhóm với một hệ số thành viên, iku
thể hiện mức độ thuộc của mẫu dữ liệu k
trong cụm i. Cho
2
ikD là khoảng cách giữa
cặp dữ liệu k và cụm i, về cơ bản đƣợc xác
định theo chuẩn Euclide và tổng quát hơn là:
TikikAikik vxAvxvxD
22
Trong đó kx cặp dữ liệu thứ k đƣợc dùng cho
việc phân cụm, A là một ma trận đối xứng,
xác định dƣơng và iv là một nguyên mẫu của
cụm. Cho U là ma trận hệ số iku và V ma
trận tọa độ trung tâm. Thuật toán sinh ra U và
V làm cực tiểu hàm tổn thất sau:
c
i
ik
m
ik
n
k
FCM DuJ
1
2
1
(1)
Với ràng buộc xác suất:
c
i
ik nku
1
.,...,1;1 và 1m là mũ mờ.
Sự tối ƣu hàm trên đƣợc thực hiện bằng một
thủ tục tối ƣu lặp. Đầu tiên, các hệ số iku
đƣợc khởi tạo ngẫu nhiên, sau đó, tại mỗi
bƣớc, hai thao tác sau đƣợc thực hiện thành
công:
(1). Tính toán các trung tâm cụm mờ iv , giả
sử các bậc iku là các hằng số, dùng phƣơng
trình sau:
n
k
m
ik
n
k
k
m
ik
i
u
xu
v
1
1
(2). Tính toán mức độ thuộc iku , giả sử các
trung tâm iv là các vector hằng, dùng phƣơng
trình:
c
j
m
jk
ik
ik
D
D
u
1
1
2
1
Các thao tác trên đƣợc lặp lại cho đến khi hội
tụ, nghĩa là các tọa độ trung tâm là ổn định
đối với sai số đã cho.
Thuật toán phân cụm FCM thích hợp với các
cụm với hình dạng và kích thƣớc có thể so
sánh đƣợc (là hình cầu khi dùng ma trận đơn
vị) hoặc khi các cụm đƣợc phân chia rõ ràng.
Nguyên mẫu cụm là các điểm dữ liệu đƣợc
chọn làm trung tâm cụm.
Input : Số cụm k và tham số mũ m cho hàm
tiêu chuẩn J
OutPut: c cụm dữ liệu sao cho hàm mục tiêu
(1) đạt giá trị tối thiểu.
Begin
(1). Nhập giá trị cho hai tham số k (1<k<n),
m ),1( và khởi tạo ma trận mẫu các tâm
V
(0)
, t=0
(2). Repeat
(2.1). t = t + 1;
(2.2). Tính ma trận phân hoạch mờ Ut theo
công thức (2)
(2.3). Cập nhật các trọng tâm V(t) = [v1
(t)
, v2
(t)
,
, vk
(t)
] dựa vào (3) và ma trận Uj;
(3). Until (|| U
(t+1) – U(t) ||F );
(4). Trình diễn các cụm kết quả.
End.
Trong đó: i j ijF uU
22 và tham số
đƣợc cho trƣớc.
Việc chọn các tham số cụm có ảnh hƣởng lớn
đến kết quả phân cụm, tham số này thƣờng
đƣợc chọn một cách ngẫu nhiên hoặc theo
kinh nghiệm. Chƣa có quy tắc nào đƣợc đƣa
ra để lựa chọn tham số m sao cho việc phân
cụm là hiệu quả nhất, thông thƣờng ngƣời ta
chọn m = 2.
Khi biểu diễn đối tƣợng mờ, mỗi thuộc tính
có 6 đặc trƣng là: {very small, small,
medium, large, very large, ignore}. Khi đó
luật mờ Ri, tƣơng ứng với mẫu xi=(xi1, xi2, . . .,
xin) thuộc vào lớp j với độ phụ thuộc là uij có
dạng sau:
if xi1 is Ai1 and xi2 is Ai2 and and xin is Ain
then xi thuộc lớp j với độ phụ thuộc uij.
Trong đó Aij={very small, small, medium,
large, very large, ignore}
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
90
SỬ DỤNG GIẢI THUẬT DI TRUYỀN CHO
TỐI ƢU HÓA QUÁ TRÌNH PHÂN CỤM
Nhƣ vậy, sau khi đã xác định các cụm từ dữ
liệu và hàm thuộc của các cụm, ta có luật mờ
nhƣ sau:
R1: If x1 is
1
1A and x2 is
1
2A then y là Cụm
1
R2: If x1 is
2
1A and x2 is
2
2A then y là Cụm 2
..
RK: If x1 is 1
kA and x2 is 2
kA then y là
Cụm k
Mã hóa
Mã hóa là một quá trình chuyển đổi hệ suy
diễn mờ thành các thông số không gian một
chiều của các cá thể. Nói một cách khác, cá
thể (là một chuỗi giá trị) chứa các thông số
cho việc xây dựng hệ suy lụân mờ. Các luật
mờ đƣợc mô tả dƣới dạng If Then với phần
điều kiện và phần kết quả là các hàm thuộc
dạng tam giác.
Mã hóa cá thể
Khi dùng giải thuật di truyền tìm nghiệm
cực đại f(S) ta cần tạo ra một quần thể với số
cá thể nhất định. Mỗi cá thể đƣợc mã hóa
bằng một chuỗi các bit (0 hoặc 1), mỗi bit
biểu diễn một luật. Khi đó chiều dài chuỗi bit
S là số lƣợng đầy đủ các luật của SAll, S=s1s2
sm
Biểu diễn gen di truyền cá thể hệ luật
Cách biểu diễn cá thể nhƣ trên vừa dƣ thừa
vừa không thực hiện đƣợc đối với các tập dữ
liệu đa đặc trƣng. Do vậy cần có sự mã hóa
các cá thể để có thể thực hiện đƣợc mục tiêu
tìm bộ luật với tối thiểu các luật và phân lớp
đúng theo các đặc trƣng mẫu học bằng cách
thực hiện nhƣ sau:
- Mỗi cá thể S chỉ chứa tối đa L luật (L <<
M với M = 4L nếu có 4 đặc trƣng)
- Mỗi luật Ri trong chuỗi cá thể S chiếm
một số lƣợng các cặp bit. Một cặp bit thể hiện
luật có trong S hay không. Các cặp bit tiếp
theo thể hiện tập mờ của từng biến đặc trƣng
trong luật Ri.
- Một cá thể của bộ luật S có L luật đƣợc
biểu diễn dƣới dạng một chuỗi gồm liên tiếp
L chuỗi Si: S = S1S2SL
- Việc giải mã các luật đƣợc tiến hành nhƣ
sau:
S = {Si=si1si2si(N+1) sao cho si1≠00; i = 1,
2,, L}
Sau khi mã hóa các cá thể, các phép toán
trong giải thuật di truyền (đột biến, ghép và
chọn lọc) đƣợc sử dụng.
Phép đột biến
Đột biến là phép toán nền tảng trong giải
thuật di truyền, trong đó từng cá thể Sh đƣợc
đột biến nhƣ sau:
- si1 ≠ 00 si1 = 00 với xác suất đột biến
pm1 (xác suất luật i không tham gia bộ luật)
- si1=00 si1 ≠ 00 với xác suất đột biến
pm2 (xác suất luật i tham gia bộ luật)
- Các bit tiếp theo đƣợc đột biến với xác
suất pm3
Với các xác suất đƣợc chọn nhƣ sau:
- Chọn pm1<<pm2,pm3: làm tăng số luật hiện
diện trong mỗi cá thể từ đó tăng khả năng tìm
ra cá thể phân lớp đúng đặc trƣng của mẫu
học.
- Khi đã có cá thể phân lớp đúng mẫu học,
chọn pm1>>pm2,pm3 để giảm số luật hiện diện
trong mỗi cá thể nhằm tìm ra cá thể tốt, từ đó
nhận đƣợc số tối thiểu các luật mà vẫn phân
lớp đúng mẫu học.
Phép lai ghép
Là một phép toán quan trọng trong GA để
tìm kiếm các tính chất hữu ích của cha mẹ.
Mỗi cặp cá thể Sh, Sk đƣợc thực hiện lai ghép
đều với xác suất pc nhƣ sau:
- Chọn các cặp bit si1, i = 1, 2,, L với xác
suất 0.5, nếu bit si1 đƣợc chọn thì các cặp bit
tiếp theo cũng đƣợc chọn (chọn đủ một luật).
- Trao đổi các cặp bit đã chọn giữa 2 cá thể
S
h
, S
k
.
- Hai cá thể con cháu mới do lai tạo sẽ
đƣợc thay thế cho hai cá thể cha mẹ trong
thế hệ kế tiếp.
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
91
Phép chọn lọc
Là quá trình cá thể đƣợc chọn dựa vào giá trị
thích nghi của nó đối với mục tiêu cần đạt
đƣợc bằng cách tạo một vòng quay đƣợc phân
chia thành nhiều phần, mỗi phần thể hiện giá
trị thích nghi của mỗi cá thể. Khi vòng quay
quay, có một viên bi với giá trị ngẫu nhiên
nhỏ hơn tổng các giá trị thích nghi di chuyển
theo hƣớng ngƣợc lại. Khi vòng quay ngừng,
viên bi dừng trên phần chia nào thì cá thể đó
đƣợc chọn. Thuật toán đƣợc mô tả nhƣ sau:
- Tính tổng:
L
i
i taSUM
1
))((
- Chọn một giá trị để so sánh: Sel
[0;SUM]
- Khởi tạo i = 1;
- Kiểm tra:
While (Sel > ))(( tai
)
{ Sel = Sel - ))(( tai
;
i = i+1;
}
select()=i; /* phần tử thứ i đƣợc chọn
Chiến lƣợc phần tử ƣu tú: Luôn luôn chọn cá
thể có giá trị thích nghi cao nhất trong thế hệ
P(t) để đƣa trực tiếp vào thế hệ kế tiếp P(t+1)
khi thực hiện phép toán chọn lọc nếu nó chƣa
đƣợc chọn để đảm bảo các thế hệ kế tiếp
không đánh mất truyền thống thích nghi tốt
nhất và nhờ đó cải thiện sự tiến hóa một cách
liên tục.
Hiệu chỉnh độ tin cậy trong thuật giải GA
Để tăng khả năng phân cụm đúng 100% các
mẫu học với chỉ một số ít luật, cần phải thay
đổi độ tin cậy của mỗi luật thông qua sự
thƣởng, phạt từng luật bằng cách đƣa thêm
một thủ tục hiệu chỉnh độ tin cậy vào quá
trình thực hiện giải thuật di truyền. Với một
mẫu dữ liệu học Xp và với số lần lặp xác
định, độ tin cậy đƣợc tăng hay giảm phụ
thuộc vào việc Xp đƣợc phân cụm đúng hay
sai. Thủ tục nhƣ sau:
Với mỗi mẫu dữ liệu học Xp, p = 1, , P
thực hiện:
- Xếp lớp cho Xp:
• Tính độ tƣơng thích của mẫu Xp đối với
từng cụm ci:
k = max{uj1(xp1) uj2(xp2)
ujN(xpN)CFi|RjS,CFj=ci}
• Nếu i≠j mà Ci = Cj thì Xp không xếp
cụm đƣợc
Nếu ko = max{k ,k = 1, , K } thì
xếp mẫu Xp vào cụm Cko
- Dùng công thức sau để xác định luật Ri chịu
trách nhiệm phân lớp mẫu Xp
i1 (xp1) i2(xp2) iN(xpN). CFi = max{j1
(xp1) j2(xp2) jN(xpN). CFj; RjS }
Trong đó: ij(xpj): là hàm thành viên tập mờ
Aij, i = 1, 2, , n; j= 1, 2, N.
Nếu luật Ri xếp đúng lớp cho Xp thì tăng độ
tin cậy của nó theo công thức:
CFi = CFi + 1. (1- CFi)
Nếu luật Ri xếp sai lớp cho Xp thì giảm độ tin
cậy của nó theo công thức:
CFi = CFi - 2.CFi
Với: 1 và 2 là các hằng số trong khoảng
(0;1).
Đánh giá:
Ƣu điểm: Làm tăng khả năng tìm ra cá thể có
các luật phân lớp đúng 100% mẫu học.
Nhƣợc điểm: Cá thể tốt nhất trong thế hệ
trƣớc qua phép chọn phần tử ƣu tú có thể
không còn là cá thể tốt nhất ở thế hệ sau do
độ tin cậy các luật của nó đã bị điều chỉnh.
KẾT QUẢ THỰC NGHIỆM
Với dữ liệu đầu vào là một bảng dữ liệu
(bảng 2-1):
Hình 4-1: Dữ liệu nhập ban đầu
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Trần Mạnh Tuấn và Đtg Tạp chí KHOA HỌC & CÔNG NGHỆ 90(02): 87 - 92
92
Hình 4-2: Kết quả sau phân cụm
Khi đó dựa trên bảng mẫu ban đầu ta chia
thành 2 bảng cơ bản.
Sử dụng giải thuật di truyền ta tối ƣu hóa các
giá trị thuộc tính thu đƣợc bảng mới hình
thành luật dƣới dạng (hình 4-3):
Hình 4-3: Kết quả tối ưu hóa các giá trị thuộc tính
Từ đó hình thành lên các luật (với 4 luật tƣơng
ứng với 8 giá trị thuộc tính ở bảng trên).
So với việc hình thành từ các mẫu của 8 giá
trị thuộc tính thì ta hình thành 8 luật. Do vậy
phƣơng pháp trên có số luật ít hơn.
KẾT LUẬN
Bài báo đã trình bày một kỹ thuật thiết kế
chuẩn hóa dữ liệu đầu vào cho hệ điều khiển
học thông qua các đặc trƣng của đối tƣợng để
hình thành hệ luật. Dữ liệu thu đƣợc từ các tri
thức trong thế giới thực, phát hiện những dữ
liệu cần thiết sau chuẩn hóa sẽ trợ giúp cho
quá trình điều khiển thu đƣợc kết quả đáng tin
cậy. Thông qua bài báo các tác giả đã đề xuất
một công cụ khai thác có hiệu quả từ dữ liệu
thông qua phân cụm và giải thuật di truyền.
TÀI LIỆU THAM KHẢO
[1]. Mohammad GhasemiGol, Hadi Saoghi Yazdi,
Reza Monsefi, A New Hierarchical Clustering
Algorithm on Fuzzy Data (FHCA), International
Journal of coputer and electrical engineering,
Vol.2, No.1, February, 2010.
[2]. C.D.Doan, S.Y.Liong and Dulakshi
S.K.Karunasinghe, Derivation of effective and
effcient data set with subtractive clustering
method and genetic algorithm, Journal of
Hydroinfomatics, 07.4.2005
[3]. Lothar M.Schmitt, Fundamental Study
Theory of genetic algorithms, Thẻoetical
Computer Science 59 (2001) 1-61
[4]. Gunter Rudolph, Convergence Analysis of
Canonical Genetic Algorithms, IEEE transaction
on neural networks, vol.5, No.1, January 1994
[5]. Mohanad Alata, Mohammad Molhim, and
Abdullah Ramini, Optimizing of Fuzzy C-Means
Clustering Algorithm Using GA, World Academy
of Science, Engineering and Technology, pages
224-229, 39 2008,
ABSTRACT
THE COMBINATION BETWEEN GENETIC ALGORITHM AND SUBTRACTIVE
CLUSTERING IN OPTIMATION FOR CONTROL PARAMETERS
Tran Manh Tuan1*, Nguyen Thi Linh1, Vu Dinh Minh2
1College of Information Technology and Communication,
2College of Technology – ĐHTN
Data in control devices are often affected by noises from many kinds of different data. It’s necessary to adjust
and to test data used in control systems. This aproach presents the combination between subtractive clustering
method and genetic algorithm in data filter from given data set. Clustering is used to reject the redundance, to
generate rules that are input knowlegde in control system. Genetic algorithm is used for searching, defining
the optimal parameters for control parameter set.
Key words: Genetic algorithm, Subtractive clustering, data filter, control system, control parameter.
*
Tel: 098 3 668 841; Email: tmtuan@ictu.edu.vn
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên
Các file đính kèm theo tài liệu này:
- brief_33295_37119_3182012153621_split_15_4294_2052376.pdf