Category: лытдыбр

Category was added automatically. Read all entries about "лытдыбр".

любопытно

Путь к светлому будущему

Десять лет назад, ещё до современного взлёта deep learning, в этом журнале я предсказал, что прорыв в AI будет основан на обобщении методов распознавания изображений. Я, правда, совершенно не ожидал, что методами этими окажется старый добрый градиентный спуск, только хорошо так перебрендированный и умеющий уважать инварианты предметной области, а думал о чем-то вроде умного LSH. Но даже так я считаю, что предсказание, в общем-то, сбылось. По такому случаю хочу продолжить и попредсказывать дальше.

В недалёком будущем нас ждёт событие, которое радикально изменит весь ландшафт IT и иного "высокотехнологичного бизнеса". Какая-то организация первой сумеет создать quasi-generic AI, то есть автоматику, способную выполнять широкий круг задач, которыми сейчас за зарплату занимаются миллионы человек. Эта организация заработает все деньги в мире.

В 2021 году абзац выше звучит одновременно банально и сомнительно. С одной стороны, всё это самоочевидно, и сейчас буквально все, от ведущих исследовательских организаций до локальных банков, стараются развиваться "куда-то примерно туда". С другой стороны, любые разговоры про AI напоминают анекдот насчёт "мышки, станьте ёжиками", и более 50 лет обещания визионеров в этой области на практике оказывались где-то на спектре между безудержным оптимизмом и прямым мошенничеством.

Я не Юдковский и мне сложно всерьёз писать о том, что случится, когда машина сможет достичь человеческого уровня мышления, заменить людей в творческих профессиях, мечтать, написать симфонию, и поднять восстание. Тем не менее, вряд ли кто-то поспорит, что машина когда-нибудь сможет понять и выполнить команду "принеси со склада такие же туфли 38 размера, а эти отнеси обратно на витрину", и что это "когда-нибудь", скорее всего, произойдёт уже при нашей жизни.

Поэтому полезно подумать о том, как выглядит путь к такому quasi-generic AI, пусть и крупными мазками. В частности, это позволяет понять, где тут потенциальное место для нас.

Поскольку вся наша область бурно развивается, часть информации, собранная мною здесь, могла устареть. Если вы увидите такие утверждения, я буду очень рад, если вы меня поправите.

Образ результата


Прежде всего давайте уточним, о какой технологии идёт речь. Задача состоит в том, чтобы получить автоматического "гастарбайтера" или автоматический "офисный планктон" (я намеренно употребляю эти уничижительные обозначения, применительно к людям я этого не делаю). То есть технологию, способную понимать и интерпретировать несложные инструкции на естественном языке и заменять человека в большом количестве простых и рутинных операций.

Можно представить себе две ветви развития таких автоматов: "физический", то есть классический робот из научной фантастики ХХ века, и "виртуальный", то есть что-то вроде Алисы на стероидах с полноценным доступом к устройству пользователя по аналогии с remote desktop.

Для начала поговорим о физических роботах.

Низкоквалифицированный работник-человек обходится работодателю примерно в $2/час. Естественно, эти цифры могут меняться в зависимости от локации, условий труда, налогов и т.п., но оценка, скорее, снизу. Предполагая, что автомат работает 14 часов в сутки без выходных и перекуров, и приняв амортизацию 10% в год, мы можем оценить, что "роботы" становятся экономически эффективными при себестоимости $100000 и ниже. Это значительно превосходит, например, стоимость типичного легкового автомобиля. Такая оценка показывает, что аргумент "роботы не нужны, люди дешевле" несостоятелен, и потенциальная ёмкость рынка таких устройств приблизительно бесконечна. Последствия появления такой технологии будут сравнимы с первой индустриальной революцией.

Существуют огромные рынки и для роботов с более узкими и конкретными "профессиями", например, для специализированных уборщиков или грузчиков. Как известно каждому, у кого есть робот-пылесос, традиционная автоматика с этими задачами в полном объеме не справляется. По соображениям непрерывности выглядит правдоподобным, что какие-то из этих задач не являются "AI-complete", то есть решить их существенно проще, чем сделать универсального "гастарбайтера", а потенциальный рынок тем не менее сопоставим с суммарными зарплатами целой профессии.

Технические проблемы


Естественно, такой потенциальный куш не остается незамеченным. Тем не менее, хотя промышленные роботы уже несколько десятков лет активно используются на производстве, это не более чем разновидность станков с ЧПУ. Роботов из мира Азимова не существует, от их появления нас отделяет сразу несколько нерешенных технических проблем, как в части физического оборудования, так и в области программного обеспечения.

Интересно в этом смысле сравнить сложности создания "роботов" со сложностями создания беспилотных автомобилей. С одной стороны, hardware автомобиля уже готово и хорошо известно, число степеней свободы управляемого объекта невелико, а задачи крайне однотипны. С другой стороны, вопросы безопасности в задаче управления беспилотниками на несколько порядков сложнее и важнее. Человекоподобный агент может быть неуклюжим, "тупить", натыкаться на людей и предметы, падать сам или что-нибудь ронять. Главное, чтобы частота подобных инцидентов позволяла ему преодолевать порог полезности. Может оказаться, что добиться этого проще, чем выжать все необходимые "девятки" безопасности автомобиля на дорогах общего пользования.

"Тело"


Чтобы выполнять многие виды работ, которые обычно выполняют люди, и уметь их бесшовно заменить, нужно обладать телом, схожим с человеческим. Хотя полный антропоморфизм не обязателен, нужно уметь проходить везде, где проходят люди, открывать двери, подыматься и спускаться по лестницам, носить предметы различной формы, крутить вентили, вставать после падения и т.п.

Два самых непонятных вопроса на этом пути это источник энергии и "руки".

Человек (как и вообще все животные) удивительно энергоэффективен, силен и автономен. Увлекательный рассказ об этом можно прочитать, например, здесь: https://what-if.xkcd.com/128/. Источники энергии, позволившие бы механизму сопоставимого размера передвигаться и подымать грузы в течение нескольких часов подряд, либо дорогие, пожаро- и взрывоопасные, ограниченные в мощности и/или в количестве циклов зарядки (аккумуляторы и батареи разного рода), либо шумные и вонючие (генераторы и ДВС). Насколько мне известно, консенсус в вопросе "для человекоподобного робота правильной была бы вот такая гибридная схема" не достигнут.

Человеческая рука может удерживать предметы весом от половины грамма до десятков килограмм, имеет почти тридцать степеней свободы, тактильные рецепторы по всей поверхности и обладает проприоцепцией (то есть даёт обратную связь о собственном положении в пространстве). Универсальных актуаторов с аналогичными характеристиками не существует. Чем-то из перечисленного, видимо, можно пожертвовать, но до какой степени, в точности неизвестно. Существует некоторое количество стартапов и небольших компаний, производящих по-разному упрощенные "роборуки" для исследовательских целей, например https://www.shadowrobot.com/dexterous-hand-series/. Стоимость таких устройств составляет от пары до десятков тысяч долларов. Ясно, что при массовом производстве они станут радикально дешевле, но пока неизвестно, какую именно разновидность стоило бы массово производить или как принять это решение.

"Мозги"


Главная и, по большому счету, единственная задача робота -- умение интерпретировать инструкции и команды на естественном языке. Задача обучить двуногого робота переводить тексты в перемещения себя и других объектов при помощи актуаторов выглядит, конечно, очень сложной, но идеально подходящей для deep reinforcement learning. На эту область возлагались большие надежды, в частности, именно поэтому DeepMind был продан Google за полмиллиарда долларов, не имея в активе ничего, кроме демок (хоть и очень впечатляющих).

Тем не менее, насколько можно судить со стороны, "главную задачу RL" сейчас никто решать не пытается. Программное обеспечение современных роботов создаётся на крайне устаревших принципах и под конкретные задачи или, чаще, PR-демонстрации. DeepMind, с блеском решив Го, рубится в старкрафт с переменным успехом. Не существует успешных примеров применения достижений современного ML даже там, где им, казалось бы, самое место, например, в задаче двуногой ходьбы. Вместо этого используются принципы, которым больше десятки лет: zero-moment point, выпуклая оптимизация и т.п. https://dspace.mit.edu/handle/1721.1/110533

Косвенным подтверждением вышесказанного можно считать то, что Google, купив Boston Dynamics, так и не смог сделать совместно с ними что-нибудь путное, и вынужден был перепродать. Вообще, кстати, интересно, что Boston Dynamics около тридцати лет, то есть эта компания старше Гугла и Яндекса.

Проблемы, стоящие перед Deep RL, и не дающие решать задачу управления сложным роботом "в лоб", на удивление похожи на проблемы ML образца примерно 2010 года. Очень доступно написанный обзор этих проблем приводится тут https://www.alexirpan.com/2018/02/14/rl-hard.html, но вкратце я сформулировал бы их так:
современному RL нужно столько же или больше обучающих данных, сколько нужно было в NLP-задачах до появления эмбеддингов. Вопрос "как трёхлетний ребёнок умудряется понять смысл слова и научиться его употреблять, услышав всего 1-2 раза в жизни" менее десяти лет назад был глубоко загадочным и в свое время привёл к появлению целой новой "хомскианской" ветви лингвистики. Статистический метод определения того, например, насколько похожи слова А и Б по смыслу, на то время требовал собрать несколько тысяч несмещенных примеров их употребления. Появление word2vec, DSSM и т.п. сделало эти вопросы почти очевидными (мы по-прежнему не знаем, как конкретно выучивают язык люди, но это умение из невообразимой магии стало чем-то, во многой степени доступным и для наших технологий).

Даже лучшим методам Deep RL нужно очень много данных, несколько миллионов обучающих примеров-фреймов, чтобы научиться решать каждую новую задачу, потому что накопленные знания никак не переиспользуются от задачи к задаче. Представляется, что в reinforcement learning аналогичная эмбеддингам революция должна быть достаточно близка, чтобы попытаться в ней поучаствовать.

По-видимому, потребуется собрать очень большой датасет при помощи какого-то motion capture людей, выполняющих множество различных задач, описанных словами. Может быть, даже окажется возможным обучить по нему универсальную Q-функцию с помощью inverse RL или imitation RL прямо в e2e-режиме. Скорее всего, предварительно или параллельно "тушку" сети, реализующей Q-функцию, но с другой "головой", придётся обучить на предиктивных задачах. Например, предсказывать позу человека в следующем кадре по нескольким предыдущим (из видео в интернете такие датасеты можно собирать практически в любых объемах).

В 2021 году эта программа лежит слишком далеко от меня и моих знакомых, и не очень понятно, как я или вы могли бы её воплощению осмысленно помочь. Поэтому дальше я напишу о втором варианте -- чисто виртуальным "заменителе человека".
любопытно

Нейронные сети наносят ответный

Вчера побывал на интересном докладе мистера Yann LeCun. Докладчик рекламировал техники, известные под собирательным названием Deep Learning, и со сцены показывал фокусы realtime-распознавание компьютером разных предметов. Наводил по очереди на них камеру ноутбука, и тот уверенно опознал пульт управления, микрофон, дисплей, докладчика и прочие предметы; сколько именно вещей он умеет узнавать, осталось тайной, но, судя по слайдам, никак не меньше пары десятков, что уже вполне ок для многих практических применений. Потом прямо на лету, за пару секунд и пару кадров, обучил его отличать себя от случайного человека из зала. Случайным человеком оказался м-р Борковский, руководитель Yandex Labs. Этот фокус я "разгадал": на LeCun'е была белая рубашка, а на Борковском - клетчатая тёмная, так что черты лица тут ни при чем; но такое лихое распознавание даже и "униформы" - все равно очень круто.


Лица, впрочем, тоже можно
Collapse )
любопытно

(no subject)

Сегодня у меня день рождения.
На свой день рождения я хочу следующий подарок: расскажите, пожалуйста, в комментариях что-нибудь интересное из вашей области деятельности. Комментарии, содержащие поздравления, и не содержащие подарка, я открывать не буду.

Вот, например, что рассказал бы я.

Всем известно, что Интернет огромный, непредставимо большой. Но не всем известно, что большая его часть - полнейший треш (типа восемнадцатой страницы темы про Ющенко из подфорума "оффтопик" на сайте mama.ru за 2007 год, не говоря уже о совсем сгенерированных роботами для роботов страничках). Поисковики успевают следить за изменениями и вообще могут как-то что-то искать именно поэтому: большая часть интернетов никому настолько не интересна, что даже заглядывать туда не нужно (или нужно ровно однажды, чтобы убедиться, что ничего там хорошего нет).

Что если сделать копию Интернета, состоящую только из текстов (без картинок и видео) и только сколько-нибудь полезных страничек (например, хоть раз кем-нибудь посещенных за некоторый недавний период)? Сколько она займет?

Оказывается, можно уложиться в десять-двадцать терабайт на всё про всё, пять современных жестких дисков. Можно слегка допилить поисковые программы Яндекса и навесить сверху; применив некоторое хитроумие, можно получить единовременную оффлайн-копию всего полезного интернета, работающую на оборудовании стоимостью единицы тысяч долларов, с возможностью поискать по нему в обычной на вид поисковой системе. Запросы, правда, будут отрабатываться очень долго - если не переписывать ничего специально, то десятки минут.

Почему какие-нибудь survivalist'ы и прочие ожидатели конца света такую штуку себе все ещё не сделали? В основном потому, что не знают о такой возможности; но ещё и потому, что процесс _подготовки_ такого "слепка интернета" требует существенно (в сотни раз) больших мощностей и безумно сложен, во всем мире это с разумным качеством умеют делать около десятка коллективов.

Или вот что я мог бы рассказать, будь я зоологом: нет двух разных видов животных "волк" и "собака". Это (вполне официально) один биологический вид. И дикая собака динго - это тоже они.



Что-нибудь такое. В комментариях все всех френдят, весёлый праздник!
любопытно

Поболтать

Я заболел и мне скучно, работать не получается - голова болит. Поговорите со мной, пожалуйста. Вот для затравки сколько-то тем.

1) Новый восторг от турецкого языка. Обнаружил, что некоторые слова экономнее ставятся в форму "моё-твоё-наше-ваше", а некоторые - в форму "его-её-их". Чуть-чуть, но всё же. И, например, конь (et) и овца (koyun) скорее "их", а сабля (pala) и деньги (para) скорее "мои" или "твои". Не уверен, впрочем, что смысловая корреляция, просматривающаяся в моей тенденциозной подборке, действительно существует.

2) Внезапно и в привычном английском слове нашел скрытые глубины, совершенно теряющиеся в переводе. State (по-русски - государство, т.е. "нечто, построенное вокруг государя") буквально означает "состояние", "положение дел". Таким образом, основная идея Макиавелли (единственная цель государства - продолжающееся существование) для английского языка крайне естественна, буквально вшита в него. Также понятно становится, что на самом деле означает выражение failed state, и почему все попытки перевести его на русский как-то убого смотрятся.
Collapse )
любопытно

Турецкий и другие

Учитывать романские языки в списке знакомых - жульничество, они все одинаковые, знаешь один - знаешь все (по модулю полнотекстового search-and-replace). Из славянских языков, будучи носителем русского, и понимая украинский, остаётся уже переходить непосредственно на Словио. Решил, значит, поучить турецкий, заодно и азербайджанский начну как-то понимать с туркменским (всякие там кара-богаз-гол, кара-даг, уч-дере, беш-пармак, соук-су, кара-курт, бир сом бир манат, аман-гельды - это всё по-турецки вполне осмысленно), а может, и татарский с казахским, если вдруг очень понравится.

Collapse )
любопытно

что такое reddit



ITT (in this thread) я просто хотел рассказать всем, кто вдруг до сих пор не знает, о том, кто такой (или что такое) реддит. Это, собственно, некий сайт, расположенный по адресу http://reddit.com, и все, кто понимает варварское английское наречие, но до сих пор его не читает, сами себе дураки. Это совершенно фантастический источник в основном бесполезного, но крайне увлекательного чтива обо всём на свете, ещё и со вполне вменяемыми комментариями профессионалов буквально по всем интересующим нас вопросам. Лепра отдыхает два раза, даже сравнивать нечего.

По умолчанию новый пользователь видит смесь, состоящую как из довольно приличных subreddit'ов (тематических подразделов), так и всякой ерунды вроде мемов, тупых приколов и обсуждений нелегкой жизни атеистов в Америке, так что вкратце о том, что там есть действительно интересного, и зачем туда вообще ходить.

http://www.reddit.com/r/IAmA/ - в каждой теме какой-то известный или чем-то очень интересный человек отвечает на задаваемые ему вопросы; например: Барак Обама (тот самый, собственной персоной, всё честно), Шварценеггер, команда Curiosity Rover, а также PSY, несколько астронавтов, Трент Резнор, команда SpaceX, нобелевские лауреаты, живые ветераны WWII, и т.д., и т.п., буквально тысячи. Это я перечислил тех, кто побывал там всего за год, кстати.

http://www.reddit.com/r/askscience/ - ответы профессионалов на вопросы о науке. Например: тред об открытии бозона Хиггса за семь часов до официального объявления, научный консенсус по вопросу глобального потепления (без политики), что случится, если засунуть руку в Большой Адронный Коллайдер, может ли умственно больной с соответствующим образованием диагностировать у себя начинающееся заболевание, и т.д. и т.п.

http://www.reddit.com/r/askhistorians/ - то же, но вопросы об истории (что на самом деле происходило на римской оргии? как охраняли порядок и расследовали преступления в разные времена и в разных культурах? сколько было алкоголиков в викторианской Англии, а сколько наркоманов, и что считалось худшим пороком? как именно были устроены античные мегаполисы?)

http://www.reddit.com/r/science - в целом попса, но можно узнавать о новых "горячих открытиях" на два-три дня раньше, чем переводы доберутся до русскоязычной прессы: "флешка на основе ДНК", астероид Апофис не упадёт на Землю, новое лекарство от лейкемии, в таком вот духе.

http://www.reddit.com/r/todayilearned - случайные поражающие воображение факты, например: жил-был донор, кровь которого спасла два миллиона жизней, Билл Гейтс потратил на благотворительность 36 миллиардов долларов, хакерская группа Anonymous уничтожила десятки сайтов с детской порнографией, Википедия забанила айпишники Конгресса, т.к. конгрессмены вандализировали статьи друг о друге, и т.д. и т.п.

Ещё бывает просто красота: EarthPorn, MilitaryPorn, DestructionPorn и т.п.

Ещё вы начинаете постигать тонкие отличия между людьми разных культур, да и вообще лучше понимать англоязычный народ. Например, начинаете находить your mama jokes или Russian reversal довольно смешными. Нет, правда.

Ну и, конечно, это неиссякаемый источник котиков, если вдруг печаль.

У реддита есть и один фатальный недостаток: его потребление в какой-то момент начинает отнимать слишком много времени. Но вы не бойтесь, бросить-то можно в любой момент, подключайтесь, героин это весело.

Интересно понять, кстати, что сделало его таким популярным. Кое-что лежит на поверхности (например, система сортировки тем и комментариев), но кое-что я пока не понимаю, и главное - откуда они взяли свою критическую массу, грубо говоря, первые сто тысяч интересных пользователей. Если кто знает, расскажите.
любопытно

У эволюции есть цель

Во всяких околоэволюционных разговорах считается признаком хорошего тона замечать, что "на самом деле" у эволюции нет никакой цели, какие-то изменения происходят совершенно случайно и закрепляются в том случае, если оказались полезны.

Это правда только в том смысле, что те функции, экстремум которых ищется в ходе эволюции, для неё самой являются чёрными ящиками. Например, нельзя градиент посчитать.

Ну и что? Как вы можете проверить сами, поиск экстремума функции методом случайного блуждания не очень-то отличается от поиска её же экстремума методом градиентного спуска. Скорость ниже лишь в маленькое константное число раз, "траектория" выглядит очень похоже. При этом вряд ли кому-то придет в голову говорить, что у градиентного спуска "на самом деле нет никакой цели".

(Бывает ли аналог gradient boosting со случайными добавками? Типа simulated annealing, только в пространстве линейных комбинаций слабых решателей? Кто-нибудь пробовал?)

Да и исходное "изменения происходят совершенно случайно" - тоже не совсем верно. Эволюция - не случайное покоординатное блуждание. Современные виды так устроены, что разные изменения происходят совершенно с разной скоростью. Геном разделен на хромосомы, и изменение некоторого фенотипического признака в результате рекомбинации сильно зависит от того, кодируется он генами, находящимися на одной хромосоме, или на нескольких, и находятся соответствующие кодоны недалеко друг от друга на молекуле ДНК, или на разных её концах. Таким образом, эволюция может как минимум регулировать скорость, с которой перебор идет по разным "координатам", а скорее всего, применять и какие-то более интересные алгоритмы оптимизации.

---
And now for something completely different. Есть такой интересный факт: люди в среднем раз в сутки на несколько часов впадают в бессознательное состояние, сопровождаемое кратковременными галлюцинациями. Многие люди склонны придавать таким галлюцинациям мистическое значение, видеть в них элементы бытовых пророчеств. Даже люди, обладающие рациональным складом ума, казалось бы, чуждые суевериям, часто с интересом обсуждают содержание своих галлюцинаций, и пытаются делать из них какие-то выводы, например, насчет собственного "подсознания".

А. хотел бы поучаствовать в этом интересном времяпровождении, и тем самым несколько социализироваться, но боится того, какие выводы о нём могут сделать окружающие. Так, сегодняшние ночные видения А. включали в себя правдоподобное описание того, как в неком мафиозном клане принято казнить предателей. Их ставят на колени, зажимают голову в слесарных тисках (лицом вниз, губки тисков сжимают виски), и отпиливают голову лобзиком. При этом шея перепиливается сзади, т.к. это позволяет существенно продлить мучения жертвы. А. наблюдал за этим обычаем с отстраненным интересом. В свое оправдание А. может отметить разве что тот факт, что его видение не включало кровь и иные отвратительные подробности.

---
А ещё дочь мне сегодня показала пальчиком на хурму и с беспокойством в голосе сообщила, что "нельзя есть мухомор".
любопытно

Доложился

Кажется, успешно. Предыдущие докладчики свои выступления затянули, и мне пришлось рассказывать всё с пулеметной скоростью. Не уверен, что всем всё осталось понятно.

После доклада познакомился с Dr. Rakesh Agrawal. Очень интересный дядька. Говорят, жутко знаменитый. Видимо, так, раз даже я что-то о нём раньше слышал.

На конференции он рассказывал о своей работе, в которой учил компьютер читать учебники (школьные и студенческие), автоматически находить в них плохо написанные разделы, и предлагать информацию, которую следовало бы в них включить (текст и картинки) на основе поиска в вебе. Мне понравилась первая часть, в которой он таки научил машину находить плохой текст, в ней было сразу несколько интересных идей; вторая часть показалась мне более тривиальной. Вообще, интересно, конечно, что отличить понятный текст от непонятного автомату на порядки проще, чем этот самый текст понимать.

Вслух он этого не говорил, но похоже, что работа эта посвящена в том числе и Индии, и результаты применения системы в будущем могут появиться на каком-нибудь тамошнем ИндПиле. Ведь смысл происходящего довольно-таки политический: если компьютер говорит, что текст плохой, то это ведь уже объективная оценка, и её попробуй проигнорируй (бывают ситуации, в которых любого редактора-человека, который скажет вам то же самое, проигнорируют). Вспоминается сюжет из "Вы, наверное, шутите, мистер Фейнман", где он участвовал в заседании какого-то бразильского образовательного совета.

Очень мне вообще нравится подход Ракеша к делу. Чувствуется, что он все свои разработки ведёт от финальной цели: что я на самом деле хочу сделать в жизни, в самом главном её итоге? Зачем это всё?

Редкий подход что в научных кругах, что в индустриальных, а жаль. Увы, не все могут себе такое позволить - не всем же, в конце концов, быть Head of Microsoft Search Labs.

Еще я заметил, что с индусами очень сложно говорить по-английски. И что у него золотые часы. :)