Открыть в приложении

Цитаты

Дмитрий Колтуновцитирует2 года назад
Давайте обратимся к классической статье по этой проблеме, написанной Крейгом Беннеттом и его коллегами, которая гораздо интереснее, чем можно ожидать судя по названию: «Нейронные корреляции межвидового восприятия, полученные после смерти атлантического лосося: аргумент в пользу коррекции множественных сравнений»18. Статья основана на результатах МРТ-сканирования мозга мертвого лосося, которому «показали серию фотографий, изображающих людей в различных ситуациях и… попросили определить, какие эмоции они испытывают». Вероятно, вы и без экспериментальных данных уже сделали свой вывод о реакции мозга мертвого лосося на показ фотографий. Но дело в том, что результат МРТ-сканирования представляет собой примерно 130 000 элементов объемного изображения, которые по аналогии с двумерными пикселями называют вокселями. И каждый из этих вокселей имеет небольшой шанс показать электрическую активность сканируемого материала исключительно в силу случайных фоновых шумов оборудования, а вовсе не потому, что клетки мозга мертвого лосося действительно реагируют. И хотя отдельно взятый воксель имеет лишь крошечный шанс дать ложный сигнал, вероятность его появления резко возрастает с учетом большого количества самих вокселей. Суммируйте огромное число крошечных шансов, и вот уже один, а то и более вокселей показывают электрическую активность, создавая впечатление, что некоторые нейроны мозга лосося активизируются, даже если сам лосось мертв. И действительно, Беннетт и его коллеги обнаружили несколько вокселей, подающих явные сигналы. В результате они пришли к такому выводу: «Либо мы наткнулись на поразительное открытие на стыке ихтиологии и посмертных когнитивных функций, либо что-то не так с нашим статистическим подходом.
gleb g.цитирует5 месяцев назад
Чем больше раз мы повторим цикл, тем более точную оценку мы получим — закон больших чисел, упомянутый в главе 2, прямо говорит об этом.
gleb g.цитирует5 месяцев назад
Иначе говоря, изменение алгоритма путем применения его к этому новому набору данных — (где исходные данные дополнены большим количеством ошибочно классифицированных копий — позволяет получить новую версию алгоритма, которая будет точнее классифицировать те данные, где ранее допускалась ошибка. Идея состоит в том, чтобы создавать искусственные данные, смещающие «внимание» алгоритма в нужном направлении. Или, по-другому, использовать данные, которые могли бы быть.

Процедура, основанная на этой идее, называется бустингом, или усилением. Когда-то она была революционной, но сегодня широко используется в машинном обучении

Впечатления

Mr. Suricanделится впечатлением8 месяцев назад
💡Познавательно
🎯Полезно
👍Советую

Наполненный точными данными и вспомогательными байками вводный курс лекций о статистике, вероятностях, корректности опросов и трактовки их результатов.
От главы национального бюро статистики Великобритании. Интересно и познавательно, даже если в принципе, в теме.

Юлия Пестоваделится впечатлениемв прошлом году
👍Советую

Интересная! Познавательная! Правда мне на слух тяжеловато воспринимать информацию, но есть и электронный формат 🙌

Ksenia Suslovaделится впечатлениемв прошлом месяце