Посты для тега : ‘вероятность’

Коэффициент Джини

измеряет неоднородность набора. Если имеется набор [A, A, B, B, B, С], то коэффициент Джини – это вероятность того, чтобы вы ошибетесь, выбрав какой-то элемент и попытавшись случайно угадать его метку. Если бы набор состоял только из элементов A, то вы всегда говорили бы A и никогда не ошибались, следовательно, набор полностью однороден.

Читать далее »

Оценка плотности распределения вероятности

Вместо того чтобы вычислять средневзвешенное соседей и получать оценку в виде одного числа, в данном случае интересно знать вероятность того, что образец попадает в некоторую ценовую категорию. Для 20-летнего вина с рейтингом 99% искомая функция должна была бы сообщить, что с вероятностью 50% цена окажется в диапазоне от $40 до $80 и с вероятностью 50% […]

Читать далее »

Фильтрация блогов

Для тестирования классификатора на реальных данных и демонстрации различных способов использования можно применить его к записям из блогов или других RSS-каналов. Для этого вам потребуется библиотека Universal Feed Parser. Если вы еще не скачали ее, зайдите на сайт http://feedparser.org. Дополнительную информацию об установке Feed Parser см. в приложении А.

Читать далее »

Документы и слова

Классификатору, который мы построим, будут необходимы признаки для классификации различных образцов. Признаком можно считать любое свойство, относительно которого можно сказать, присутствует оно в образце или нет. Если классифицируются документы, то образцом считается документ, а признаками – встречающиеся в нем слова. Когда слова рассматриваются как признаки, мы предполагаем, что некоторые слова вероятнее встретить в спаме, чем […]

Читать далее »

Выбор наилучшего разбиения

Сделанное нами неформальное наблюдение о том, что переменная выбрана не очень хорошо, может быть и верным, но для реализации программы нужен способ измерения неоднородности множества. Требуется найти такую переменную, чтобы множества как можно меньше пересекались. Первое, что нам понадобится, – это функция для вычисления того, сколько раз каждый результат представлен в множестве строк. Добавьте ее […]

Читать далее »

Байесовский классификатор

Байесовские классификаторы рассматривались ранее. Мы показали, как построить систему классификации документов, например, для фильтрации спама или разбиения множества документов по категориям при наличии неоднозначных результатов поиска по ключевым словам.

Читать далее »

Наивная классификация

Имея вероятности для слов, входящих в документ, вы должны выбрать какой-то способ комбинирования вероятностей отдельных слов для вычисления вероятности того, что документ в целом принадлежит данной категории. В этой статье мы рассмотрим два разных метода классификации. Оба работают в большинстве случаев, но несколько отличаются по качеству при решении конкретных задач. Предметом этого раздела будет наивный […]

Читать далее »

Графическое представление вероятностей

Чтобы не гадать, какие диапазоны апробировать, можно создать графическое представление плотности распределения вероятности. Для построения графиков существует отличная библиотека matplotlib, которую можно скачать с сайта http://matplotlib.sourceforge.net.

Читать далее »

Условная вероятность

Вероятность – это характеристика частоты возникновения некоторого события. Обычно ее записывают следующим образом: Pr(A) = x, где A – событие. Например, можно сказать, что сегодня вероятность дождя составляет 20%, и записать это в виде Pr(Дождь) = 0,2. Если бы, выглянув в окно, вы увидели, что небо в тучах, то могли бы заключить, что шансы на […]

Читать далее »

Краткое введение в теорему Байеса

Теорема Байеса описывает соотношение между условными вероятностями. Обычно она записывается в виде Pr(A | B) = Pr(B | A) x Pr(A) / Pr(B) В применении к нашему примеру эта формула принимает следующий вид: Pr(Категория | Документ) = Pr(Документ | Категория) x x Pr(Категория) / Pr(Документ) В предыдущем разделе мы показали, как вычислить Pr(Документ | Категория), […]

Читать далее »
 
Rambler's Top100