• Chapter 1: Database System Concepts and ArchitectureChapter 1: Database System Concepts and Architecture

    Summary  File-based Approach and Database Approach  Three-Schema Architecture and Data Independence  Database Languages  Data Models Database Schema and Database State  Data Management Systems Framework  Next week: ER Model

    pdf42 trang | Chia sẻ: vutrong32 | Ngày: 18/10/2018 | Lượt xem: 1249 | Lượt tải: 0

  • Chương 1.3: Thuật toán đệ quyChương 1.3: Thuật toán đệ quy

    Thuật toán quay lui Thuật toán quay lui – backtracking algorithm:  Thử tìm kiếm lời giải đầy đủ cho bài toán từ việc xây dựng lời giải bộ phận, trong đó lời giải bộ phận phải luôn phù hợp với yêu cầu bài toán.  Trong quá trình thực hiện, thuật toán mở rộng dần lời giải bộ phận. Nếu việc mở rộng khiến lời giải bộ phận vi phạm yêu cầu bài to...

    pdf12 trang | Chia sẻ: vutrong32 | Ngày: 18/10/2018 | Lượt xem: 996 | Lượt tải: 0

  • Chương 1.2: Phân tích thuật toánChương 1.2: Phân tích thuật toán

    Lệnh được lặp lại nhiều nhất chính là lệnh if Phân tích trong trường hợp tồi nhất • Vòng lặp ngoài lặp n lần (từ 0 tới n‐1) • Vòng lặp trong lặp n lần ứng với mỗi lần lặp của vòng ngoài • Vậy số lượng bước (thời gian) cần thực hiện trong trường hợp tồi nhất là ݊

    pdf8 trang | Chia sẻ: vutrong32 | Ngày: 18/10/2018 | Lượt xem: 966 | Lượt tải: 0

  • Phần I – Giới thiệu về Thuật toán - Chương 1.1: Khái niệm cơ bảnPhần I – Giới thiệu về Thuật toán - Chương 1.1: Khái niệm cơ bản

    • Cần biểu diễn các bước thực hiện tuần tự của thuật toán một cách cụ thể. • Biểu diễn bằng: • Ngôn ngữ tự nhiên • Giả ngôn ngữ (pseudocode) • Lưu đồ • Ngôn ngữ lập trình cụ thể (C/C++, java, )

    pdf5 trang | Chia sẻ: vutrong32 | Ngày: 18/10/2018 | Lượt xem: 995 | Lượt tải: 0

  • Chapter 10 Hidden Markov ModelsChapter 10 Hidden Markov Models

    Similarly, from the data given in Figure 10.5, we can estimate the parameter values of the HMM corresponding to digit 7. 1 = 0/12 = 0 and 2 = 12/12 = 1 a11 = 4/5, a12 = 1/5, a21 = 6/7 and a22 = 1/7 There are six different observation symbols (rows) in the training patterns given in Figure 10.5. They are “111”, “001”, “011”, “101”, “110”, and...

    ppt53 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 1023 | Lượt tải: 0

  • Chapter 9 Combination of classifiersChapter 9 Combination of classifiers

    An ROC curve is plotted as follows. Starting at the bottom-left hand corner (where the TPF and FPP are both 0), we check the actual class label of the tuple at the top of the list. If we have a true positive then on the ROC curve, we move up and plot a point. If, the tuple really belongs to the ‘no’ class, we have a false positive, on the ROC curv...

    ppt22 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 1015 | Lượt tải: 0

  • Chapter 8 Support Vector MachinesChapter 8 Support Vector Machines

    The quadratic programming differs from the linear programming only in that the objective function also include xj2 and xixj (i  j) terms. If we used matrix notation, the problem is to find x so as to Maximize f(x) = cx – (1/2)xTQx, subject to Ax  b and x  0 where c is a row vector, x and b are column vectors, Q and A are matrices. The qij...

    ppt45 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 1030 | Lượt tải: 0

  • Chapter 5 Decision treesChapter 5 Decision trees

    Pruning If the tree is grown too large, it can be pruned by trimming in a bottom-up fashion. All pairs of neighboring leaf nodes (i.e. ones linked to a common parent) are considered for elimination. Any pair whose elimination results in a satisfactory (small) increase in impurity is eliminated, and the common parent node becomes a leaf node. (Thi...

    ppt30 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 981 | Lượt tải: 0

  • Chapter 4 Bayes ClassifierChapter 4 Bayes Classifier

    Prior probability: probability in the absence of any other information P(A): probability of event A Example: P(Dice = 2) = 1/6 random variable: Dice domain = <1, 2, 3, 4, 5, 6> probability distribution: P(Dice) = <1/6, 1/6, 1/6, 1/6, 1/6, 1/6>

    ppt27 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 1076 | Lượt tải: 0

  • Chapter 3 Nearest neighbor based classifiersChapter 3 Nearest neighbor based classifiers

    Conclusions The nearest-neighbor classifiers are appealing and effective. The drawback is in the implementation: high computational time and space for large training data. To reduce the computation time, various approaches have been proposed which help retrieve the nearest neighbors in a short time (e.g. using the support of some data structures...

    ppt34 trang | Chia sẻ: vutrong32 | Ngày: 17/10/2018 | Lượt xem: 1006 | Lượt tải: 0