Category: образование

Category was added automatically. Read all entries about "образование".

любопытно

Возведения в степень не существует

Факт, который я для себя открыл совсем недавно (непонятно, почему в университете об этом как-то умалчивали).

С начальной школы мы привыкли к тому, что "умножение" - замена многократному сложению, а "возведение в степень" - замена многократному умножению. Можно, по аналогии, определить какую-нибудь "суперстепень", продолжая цепочку, но это бессодержательно, т.к. подобная операция практически не встречается.

На самом деле, кроме целых или вещественных чисел, в математике есть много других наборов объектов, которые можно умножать и складывать: комплексные числа, остатки от деления на целое число, матрицы, многое другое. Умножают и складывают их по своим правилам, но при этом выполняются некоторые соотношения, такие же, как для обычных чисел, например:
(a + b)*c = a*c + b*c
a + b = b + a
существует такой элемент, обозначаемый "0", что 0*х = х*0 = 0 для любого х
существует такой элемент, обозначаемый "1", что 1*х = x*1 = x для любого х
и т.п.

Ну так вот, хорошо бы, по аналогии, определить операцию "возведения в степень" ^ аналогичным образом. Пусть это будет какая-то операция, для которой выполняется хотя бы такое:
(свойство 1) x^1 = x,
(свойство 2) x^(a+b) = x^a*x^b

Прикол, о котором я раньше не подозревал, состоит в том, что подобной операции, судя по всему, не существует нигде, кроме Z2, где она тривиальна: x^y=x для любых x и y. Её нет уже в Z3, что просто доказывается, и дальше тоже нет.

Что же такого особенного в целых/вещественных числах, что в них она существует? Collapse )
любопытно

Турецкий и другие

Учитывать романские языки в списке знакомых - жульничество, они все одинаковые, знаешь один - знаешь все (по модулю полнотекстового search-and-replace). Из славянских языков, будучи носителем русского, и понимая украинский, остаётся уже переходить непосредственно на Словио. Решил, значит, поучить турецкий, заодно и азербайджанский начну как-то понимать с туркменским (всякие там кара-богаз-гол, кара-даг, уч-дере, беш-пармак, соук-су, кара-курт, бир сом бир манат, аман-гельды - это всё по-турецки вполне осмысленно), а может, и татарский с казахским, если вдруг очень понравится.

Collapse )
любопытно

О пользе математического образования

Я закончил мехмат примерно 11 лет назад. Не знаю, как сейчас, но в 2002 году весь наш выпуск заботил совершенно практический вопрос: зачем стране 400 математиков в год, и чем мы все будем заниматься через несколько месяцев? Понятно, что какие-то варианты были тогда, как есть они и сейчас, но ощущение глобальной недосказанности присутствовало.

У нас было понимание того, чем занимались "математики" в СССР, когда программа мехмата и стиль обучения на нём были сформированы и зафиксированы. Вполне понятно было, что, вопреки желаниям многих "настоящих", харкорных математиков, структура эта предназначалась для выпуска людей, помогающих производить всякий ценный equipment для богини Кали, ну или там, звездные звездолёты. С тех пор остались какие-то рудименты того времени -- объединение механиков с математиками в единую структуру, такие дисциплины, как "уравнения математической физики" и "теория управления" и тп, но ясно, что мир изменился. Что дальше?

Collapse )
любопытно

Лекции для старшеклассников в Яндексе

http://clubs.ya.ru/company/62179

Лекции по информатике, математике, лингвистике и смежным с ними дисциплинам. Начинаются с 16 марта, проходят по субботам, с 17:00 до 18.30, в московском офисе Яндекса (метро "Парк Культуры"). Вход свободный по предварительной регистрации.

Очень здорово.
любопытно

Про С.Е.Рукшина

По "нашему" интернету последнюю пару дней ходит такое вот интервью Сергея Евгеньевича Рукшина о реформах образования в России под названием "Дошли до точки невозврата". Оно вызывает споры. Я не специалист в проблемах образования, но спорщики совершенно не представляют себе, кто такой Рукшин, и чем он занимается, и пишут много глупостей. Я об этом хоть что-то знаю, поэтому и попробую рассказать. Уверен, что я многое напутаю, особенно в том, что касается целей, но что делать-то.

Collapse )
любопытно

Цикл лекций Политехнического музея "Компьютерная лингвистика"

В Политехе начали читать курс лекций. Курс ознакомительный, просто чтобы рассказать интересующимся о том, "что это вообще такое".

Вчера была вступительная лекция В.Селегея. Очень мощный дядька, очень хорошая лекция, во многом пересекавшаяся со знаменитым письмом Норвига турецкому султану Хомскому. В.П. очень системно всё разложил по полочкам, не старался создать впечатление-сверхъестественной-сложности, не занимался саморекламой. Вообще, мне кажется, учёным очень важно параллельно с наукой работать в коммерческих структурах, хотя бы время от времени.

Через неделю (точнее, в следующий вторник, 16-го, в 19:00) следующую лекцию читаю я. Жуть. После Селегея чувствую себя самозванцем, честно говоря.
любопытно

люди делятся

Сегодня мне приснилось, что catta открыла в России Институт Нейролингвистического Программирования. Негосударственный, с платным обучением. Поскольку она человек серьезный, в Институте, в отличие от существующих шарашек, всерьез учат каким-то работающим приемам. И она упоминает интересный факт: все абитуриенты, заключая контракт на обучение, требуют себе одну из двух опций - кто-то полную секретность и конфиденциальность, а кто-то, наоборот, право всячески рекламировать, что прошли такое обучение, размещать специальный красивый логотип у себя на персональных сайтах, и так далее. Ко второй категории относились, в частности, Олег Тиньков и Герман Стерлигов. Такой сон.
любопытно

про бинарные классификаторы

А не хочет ли кто-нибудь обсудить одну штуку из области machine learning?

Неформально, задача такая: нужно построить почти бинарный классификатор (в каком смысле "почти" - см.ниже). Для этого есть некоторое (очень небольшое) количество фичей, каждая из которых имеет неотрицательную корреляцию с результатом. Процесс получения оценок допускает active learning, но при этом хочется уметь обойтись небольшим количеством оценок.

Навскидку кажется, что делать это нужно примерно как в этой, например, статье: Support Vector Machine Active Learning with Applications to Text Classication - использовать SVM, а для active learning на каждом шаге выбирать те примеры, которые после их классификации как можно сильнее сузят пространство допустимых гиперплоскостей в parameter space.

Проблема в том, что мне ужасно не нравится, как это работает на практике. Практически все предлагаемые к оценке примеры, начиная уже где-нибудь с первого десятка, как на подбор оказываются из "серой зоны", то есть либо такими, которые и человек не способен уверенно классифицировать, либо, что еще хуже, такими, которые данными фичами явно "не берутся".

Я обошел это, включив "серую зону" непосредственно в условия задачи - т.е. классификатор должен уметь отличать "точно да", "точно нет", и всё остальное. Это, в общем, работает, и уже гораздо лучше, но, к сожалению, этим решением я резко ограничиваю себе доступ к сокровищнице мировой мысли, поскольку постановка существенно более экзотическая (это, например, не совсем мультиклассификация, поскольку ответ вида "плюс с вероятностью 66%, минус с вероятностью 33%, серая зона с вероятностью 1%" абсолютно некорректен и не очень понятно, как его интерпретировать). Ну и начинаются какие-то хаки, problem-specific твики и т.п.

Нет ли способа лучше? Что известно, например, про active learning для постановки с "мягким бинарным классификатором" (когда ответ разрешается давать в форме "да с вероятностью 78%", а не просто "да")?

Upd. Спасибо всем за комментарии. В общем, я решил не изобретать велосипед, а использовать честный gradient boosting для логистической регрессии. Примеры для активного обучения при этом выбираю не такие, на которых вероятность близка к 50%, а такие, на которых она близка к, условно говоря, 40% или к 60%, в зависимости от того, каких оценок (подожительных или отрицательных) классификатору не хватает. Плюс к этому у человека есть возможность сказать "не хочу оценивать этот пример", если его невозможно уверенно классифицировать. В сумме метод отлично работает, гораздо лучше всяких наколеночных, и лучше, чем SVM.
любопытно

Внезапно доклад

Владимир Евгеньевич Павловский (мой научный руководитель в Университете и в послеуниверситетские годы) попросил меня выступить на его семинаре на мехмате. Будут два-три примера применения математики в интернет-поиске. Предположительно для разминки про PageRank, потом поверхностно про machine learning, ну и про какую-нибудь формальную модель пользовательского поведения и оптимизацию под нее. Основная цель - рассказать хорошим студентам, что на свете, оказывается, и такое бывает. Никаких секретов выдавать не собираюсь. Если вы работаете в нашей области или вообще мой коллега, то ничего нового для себя не откроете, поэтому приходить не нужно. Оптимизироваться под Яндекс или Гугл никак не поможет, из этих соображений тоже приходить не нужно.

Если вдруг все равно соберетесь, имейте в виду, что вход в ГЗ МГУ по пропускам, которые я выдавать не умею. Если есть диплом выпускника, то можно пройти по диплому, но такой способ входа почему-то действует строго до 18:00.

Updated: Доклад 17го февраля (следующая среда) в 18:30 в аудитории 1624 (на мехмате).
10-го отменили из-за болезни секретаря семинара.