Создайте массив входных документов.
Создайте модель сумки слов из входных документов.
bag =
bagOfWords with properties:
Counts: [6x17 double]
Vocabulary: ["the" "quick" "brown" "fox" ... ]
NumWords: 17
NumDocuments: 6
Создайте массив документов запроса.
queries =
2x1 tokenizedDocument:
8 tokens: a brown fox leaped over the lazy dog
6 tokens: another fox leaped over the dog
Вычислите баллы MMR. Выход является разреженной матрицей.
Визуализируйте баллы MMR в карте тепла.
Теперь вычислите баллы снова и установите значение lambda к 0,01. Когда значение lambda близко к 0, избыточное выражение документов более низкие баллы и разнообразно (но менее важный для запроса), документы дают к более высоким баллам.
Визуализируйте баллы MMR в карте тепла.
Наконец, вычислите баллы снова и установите значение lambda к 1. Когда значение lambda равняется 1, документы, важные для запроса, дают к более высоким баллам несмотря на другие документы, дающие к рекордам.
Визуализируйте баллы MMR в карте тепла.