Создайте массив входа документов.
Создайте модель мешка слов из входа документов.
bag =
bagOfWords with properties:
Counts: [6x17 double]
Vocabulary: [1x17 string]
NumWords: 17
NumDocuments: 6
Создайте массив документов запросов.
queries =
2x1 tokenizedDocument:
8 tokens: a brown fox leaped over the lazy dog
6 tokens: another fox leaped over the dog
Вычислите счета MMR. Выходы являются разреженной матрицей.
Визуализируйте счета MMR в тепловой карте.
Теперь вычислите счета снова и установите значение лямбды равным 0,01. Когда значение лямбды близко к 0, избыточные документы дают более низкие счета, а разнообразные (но менее релевантные для запроса) документы дают более высокие счета.
Визуализируйте счета MMR в тепловой карте.
Наконец, вычислите счета снова и установите значение лямбды равным 1. Когда значение лямбды равно 1, релевантные для запроса документы дают более высокие счета, несмотря на то, что другие документы дают высокие счета.
Визуализируйте счета MMR в тепловой карте.