Category: компьютеры

Category was added automatically. Read all entries about "компьютеры".

любопытно

Трансгуманистическое

Обсуждают, что будет представлять собой "домашний компьютер" к 2020 году: http://lyuden.livejournal.com/65431.html#comments
Обсуждение в лучших традициях трансгуманизма и сингулярности, т.е. весьма научно-фантастическое, но тема на самом деле интересная. Всё, что мы будем иметь к 2020 году повсеместно, должно быть даже не в лабораториях, а уже подходить в продакшн.

Магистральное направление, насколько я вижу вокруг - это коммерческая возможность за маленькие деньги получать доступ к вычислениям на кластере. Сейчас тебе могут в облаке "выдать" порядка сотен компьютеров с какой-то сетью. Если так пойдет дальше, то к 2020, грубо говоря, час работы 20000 машинок с GPU и инфинибендом (что примерно так суперкомпьютер лучше сегодняшнего top 1) вполне сможет стоить, скажем, $200, а то же самое на 100 машинок уже for all intents and purposes можно будет считать своим "домашним компьютером". Существование подобного сервиса упирается не в технологии, а чисто в окупаемость.

Главный вопрос в том, что на всём этом считать. Бывают ли вообще массовые задачи под суперкомпьютеры? Ну, допустим, мы там уже заранее развернули hadoop или какой-то аналог, matrixnet или какое-нибудь другое машинное обучение из коробки, 3d рендеринг какой-нибудь, обсчет ядерных взрывов на фортране, Half Life 3, и вообще что угодно достаточно реалистичное. Всё готово, можно только запускать через красивый консольный интерфейс. Что запускаем?

У меня не совсем праздный интерес, знакомые местами очень даже пристально в эту сторону смотят, но я не уверен пока, что они что-то ценное высмотрели. Фиг с ними, пока что, с matrioshka brains, давайте для начала lyuden нам расскажет, зачем вот лично ему нужен ssh на компьютер с N петафлопс. :)
любопытно

Про иссскуссственнный интеллект ч.3

Часть 1, часть 2.

Этот пост оказался каким-то очень уж сложным, я пытаюсь дописать его битых три недели. Переписываю-дописываю-стираю-пишу. Выходит не так доходчиво и не так убедительно, как хотелось бы, но сколько уже можно, в самом деле.

В итоге я собираюсь сформулировать примерно такой набор утверждений:
1) компьютеры плохо умеют Икс
2) а вот люди хорошо умеют Икс
3) мы можем показать, что 1 и 2 верно, с помощью некоторой формализуемой процедуры
4) методы, которые позволят компьютерам Икс, очень сильно приблизят нас к Strong AI
5) в последние годы эти методы примерно просматриваются

Беда в том, что отважные «домашние философы»* способны решительнейше формулировать аналогичные утверждения для самых разных Икс. Особенно если некритически принимать, что пункты 4-5 мы как-нибудь, пока не очень понятно как, но вот кстати интересные абсолютно нерелевантные ссылки (ссылка), ролики (ссылка), новости (ссылка) и статьи (pdf), так что уж сделаем. Ну, за двадцать лет-то точно.

Я очень боюсь тупых комментариев за авторством умных людей, из которых станет очевидно, что теперь придется либо написать в десять раз больше букв, чтобы кому-нибудь что-нибудь объяснить, либо махнуть рукой, завернуться в теплый клетчатый плед и грустить о несовершенстве мира. После того, как в комментариях появится парочка подобных иксов, их можно будет смело отключать, или обсуждать футбол и баб, итоговая продуктивность будет той же.

Ладно, волков бояться – в лес не ходить. Пора. Шлифовать буду потом.

Чтобы окончательно не уподобиться Шахерезаде, этот пост (длинный) именно о том, чем является Икс. А уж когда-нибудь потом, если придется, буду объяснять, почему Икс – не «здравый смысл», не «адаптивность», не«умение предсказывать развитие событий в будущем», не «умение не только решать задачи, но и ставить собственные», не «умение решать не до конца сформулированные задачи», не «general knowledge representation» и т.д. и т.п., тысячи их. Если руки дойдут, конечно.

Прежде чем читать дальше, посмотрите, пожалуйста, на такую картинку.



Collapse )
любопытно

Переформулировка

Надоело спорить о вкусах в комментариях к предыдущему посту. Сказать хотелось нечто отличное от "оффлайн не нужен" или "в онлайне лучше". Попытка вторая и последняя.

История древнего мира мне видится так. Ранний Windows "всех победил", поскольку очень вовремя предоставил разработчикам приложений какое-никакое API, с помощью которого можно было быстро создавать современные графические интерфейсы. Похожие друг на друга, и друг с другом совместимые. Поскольку оконно-виджетный интерфейс тогда находился близко к "переднему краю программирования", все дико обрадовались и наполнили свежесозданную ОС "уникальным контентом".

Вообще, значительная часть победивших "платформ" побеждала именно этим способом: предоставляла решение проблемы, которую гораздо правильнее решать "раз и навсегда", а не "каждому по-своему".

С тех пор появился еще один важный тип взаимодействия человека с компьютером. Он выглядит так: как попало описываешь буквами свою задачу (здесь саджест и исправление опечаток). Жмешь Enter. Компьютер или её мгновенно решает, или выдает тебе упорядоченный по релевантности список инструментов и данных, необходимых для её решения.

Сейчас подобный UI имеется только у единичных интернет-поисковиков (я знаю одно исключение, это "Математика", очень нишевый продукт, необходимый код недавно скопипейстивший у младшего онлайнового брата).

Есть большое подозрение, что подобное взаимодействие можно сделать основным и для оболочки операционной системы, после чего захватить мир (в случае, если решение первой предоставит компания на букву M., не дать его перезахватить другим).
любопытно

Оффлайн

В последние годы всё больше вещей на компьютере делаются онлайн, и всё меньше оффлайн. И некоторые вещи относительно последнего меня всё больше удивляют.

(подразумевается, что всё ниже перечисленное происходит на компьютере с хорошим постоянным подключением к интернету, потому и удивительно; удобно держать в голове аналогию "программа = сайт, операционка = поисковик")

0) Программы нужно инсталлировать! А перед этим - покупать! Мало того, о них нужно откуда-то еще узнать до этого! А если программа тебе не понравилась, её потом нужно специальным образом удалять!
1) Чтобы пользоваться собственным компьютером, нужно знать и помнить гораздо больше, чем для любого нормального места в интернете (да и чем для них для всех вместе взятых). В Сети по сравнению с этим можно жить, не приходя в сознание.
2) Практически нигде автоматически не исправляются опечатки; даже неверную раскладку исправляет разве что какая-то сомнительная сторонняя программа.
3) Саджеста нигде нет. Каждый раз, когда Полина сохраняет рисунок, и пишет в качестве названия что-нибудь вроде "кот и со", я ожидаю, что сейчас в drop-down появится "кот и собака". Не появляется.
4) Там, где саджест есть, он убогий. Не знает, в общем-то, ничего, кроме названий имеющихся на моем компьютере файлов. Диалог открытия файла подсказывает (и потом открывает) файлы только из текущей директории - даже если я уже начал вводить название, а в этой директории нет такого файла! Даже то, что он всё-таки подсказывает, по релевантности не упорядочивается. Не понимает, что "фильмы" - это длинные видеофайлы. Не знает, что "my documents" и "мои документы" - одно и то же.
5) Музыкальный проигрыватель радостно сообщает, что файл Manowar - 01 - Wheels Of Fire.mp3, находящийся в папочке Music/Manowar/1988 - Kings Of Metal исполняет неизвестный исполнитель в неизвестном жанре, альбом неизвестен, и неизвестно зачем это вообще слушать

Дальше я с ходу не сформулирую, но пунктов пятнадцать в том же стиле насчитать можно. При этом интернет-поисковики успешно демонстрируют нам, что все эти пункты поправимы (кроме нулевого, поправимость которого демонстрируют другие люди). По-моему, долго так продолжаться не может.
любопытно

SIGIR-2010

На прошлой неделе побывал на SIGIR. Это такая конференция по "поиску информации". Если последние два слова кажутся вам расплывчатыми и могущими означать что попало, то отбросьте сомнения - вам не кажется, так оно и есть.

Ситуация примерно следующая. Конференция начиналась больше тридцати лет назад, когда с интернетом в мире было не очень, и была посвящена library science, то есть по сути науке о том, как бы так библиотекарям правильнее вести архивы, индексы и картотеки, чтобы наиболее эффективно удовлетворять потребности ученых и аналитиков, приходящих к ним со своими странными запросами вроде "а что бы мне почитать про математику древнего Вавилона". Если точнее, участвовали в конференции адепты молодой и нахальной ветви этой науки, утверждавшие (здесь я ради веселья и троллинга всё несколько упрощаю), что для этого достаточно знать, сколько раз какое слово входит в какой документ, и использовать КОМПЬЮТЕРЫ, а всякие там "ключевые слова", тематические индексы, вручную построенные выжимки и иные плоды труда рабов почти бесполезны, т.к. поиск по ним проигрывает не то что tf/idf или не дай бог BM25, а даже простейшим vector space model (это метод, который только звучит научно, а на самом деле сводится к тому, что тот документ у нас будет релевантнее, в котором слова запроса удельно встречаются чаще).

Ссылались они при этом на Cranfield Experiments, которые доказали в общем-то ровно преимущество простых, тупых и идеально автоматизируемых методов (было это еще в шестидесятых годах, когда компьютеры поиском информации особенно не занимались). То, как эти эксперименты были организованы, очень похоже на то, как тестируют и сравнивают поисковики сейчас во всяких TREC'ах и ROMIP/РОМИП'ах: есть набор документов (коллекция), есть набор запросов, и есть набор оценок, составленных вручную - какой набор документов какому запросу релевантен; этого достаточно, чтобы верифицируемо сравнивать результаты работы разных методов поиска. В итоге получилось то, что получилось - общепринятые патентованные методы (тм) никакой пользы не приносят. Автор экспериментов сомневался, стоит ли публиковать эти результаты, ибо боялся, что ему никто не поверит, и это в лучшем случае. Совершенно справедливо - скажем, для диссертации и по сей день приходится честно заполнять примерно стопиццот разных custom fields вроде "тематики" и "ключевые слова"; не знаю, пользуется ли ими кто-нибудь для поиска, но если и пользуется - сам себе злобный буратина. Забавно, что в комментариях у avva буквально в прошлом году появлялись гневные сторонники классической library science, и смешивали с грязью все эти ваши новомодные гугли и википедии, которые, по их мнению, и рядом не лежали со старой доброй универсальной онтологией "библиотечного классификатора"; про cranfield paradigm, которая за пятьдесят лет стала настолько общим местом, что на этой конференции ее чуть не объявили замшелой и устаревшей, они, судя по всему, не слышали.

Хорошо, в 1978 году идеи автоматически искать информацию при помощи компьютеров (а не специально обученных библиотекарей), строить инвертированный индекс, и, страшно сказать, применять при этом вероятностные модели, были новыми и обещали произвести революцию (что характерно, произвели). Прошло 30+ лет, и, пусть кому-то это нравится, а кому-то нет, люди ищут информацию в интернете на пять порядков чаще, чем в библиотеках. И как же изменился SIGIR, чтобы отразить эту смену реальности, и зачем туда ездят люди из Яндекса, Microsoft Bing, Yahoo, Google, и прочих интересных компаний, хотите вы спросить (а может, и не хотите). А также наверняка вам интересно, во сколько обойдутся такси и хот-доги в Женеве, и зачем в отеле "Интерконтиненталь" стоит двуспальная кровать в коридоре возле бассейна. Обо всем этом завтра, а сейчас Полина (см. юзерпик) выгоняет меня из-за комнефпм ПАНТЕРА КИТТИ КИТТИ
любопытно

machine-learning-with-quantum

Две недели назад в Google Official research blog была опубликована запись о сотрудничестве с компанией D-Wave, а конкретнее, об опыте применения квантового компьютера в задачах классификации изображений. Пост содержал примечательную фразу "in our experiments we observed that this detector performs better than those we had trained using classical solvers running on the computers we have in our data centers today".

Все это одновременно пугало и воодушевляло, и вызвало желание разобраться, что конкретно было сделано. Благо, пост содержал ссылки на статьи, в которых и метод машинного обучения, и сами эксперименты были описаны в подробностях.

Мой вывод вкратце: прорыва не случилось; маркетинг Google, кажется, совершил ошибку, "вписавшись" за D-Wave. Технические подробности в следующем посте.

Здесь немного пояснений для неспециалистов - чем квантовый компьютер отличается от обычного, и какое именно чудо нам обещали.

Электронные вычислительные машины стали привычными устройствами и никого, в общем, не удивляют. Никого не удивляет и прогресс в этой области. Десять лет назад вычислительная мощность компьютеров стабильно удваивалась каждые полтора года, и к этому все привыкли. Сейчас это уже не совсем так, но в рейтинге суперкомпьютеров продолжают появляться новые, более мощные, домашние устройства становятся удобнее, дешевле, мобильнее, обрастают ядрами процессора и специализированными картами для расчетов графики, физики, и т.д. и т.п.

Но квантовый компьютер - совсем не следующий шаг в этой линейке. Он не является ни заменой привычным электронным, ни их развитием. Это самостоятельный класс устройств. Пока что придумано, как на нем решать только некоторое небольшое количество задач, но зато с такой скоростью, которая обычным компьютерам в принципе недоступна. Крайне упрощая: существуют задачи, которые "обычный" суперкомпьютер современными методами будет решать миллион лет, а квантовый решит за секунду. Сами по себе такие задачи довольно редкие, в быту не особенно полезные, а многие из них решать вообще не стоило бы.

Например, появление полноценных квантовых компьютеров означало бы необходимость полностью переделать современные схемы шифрования и электронной безопасности, так как "взлом" современных шифров после этого становится тривиальным. А ведь современная криптография - давно никакая не военная экзотика; на ее основе работают, например, соединение по протоколу https с веб-сайтами банков и интернет-магазинами, шифрование разговора по Skype, Java-апплеты, наконец, обычные банкоматы. Нет, ну и военные/спецслужбистские переговоры все-таки тоже, конечно.

Вырисовывается аналогия с ядерной энергией. Ядерные электростанции - это, конечно, здорово, но на самом деле все понимают, по каким причинам в прошлом веке в развитие соответствующих областей физики и инженерного дела вкладывались такие силы и средства.

Часть заявки Google и D-Wave состояла в том, что они смогли придумать для квантовых компьютеров "мирное применение" в реальных повседневных задачах распознавания и классификации изображений (и не только). Это было бы само по себе замечательно. Те самые "ядерные электростанции".

Но основным достижением было, конечно, то, что статьи и результаты якобы демонстрировали применение полноценного работающего квантового компьютера "почти промышленного" качества.

И вот тут начинается самое интересное. Дело в том, что, в отличие от обычного компьютера, квантовый - устройство совершенно магическое. Электронная вычислительная машина является, по сути, просто разогнанным в миллиард раз механическим арифмометром. За счет этого "умножения на миллиард" она выглядит очень умной и начинает уметь что-то нетривиальное, но логику ее работы все-таки можно понять от и до и объяснить "на пальцах", используя для этого всем привычные аналогии - счёты, шестеренки, etc.

А вот никакого аналога квантового компьютера в "обычной жизни", видимо, нет, и быть не может (я здесь не хочу говорить о сверхновой религии некоторых физиков, произвольно объявляющих мозг разновидностью квантового компьютера). Это такой хак Матрицы, он серьезно использует тот факт, что "все вокруг совсем не такое, каким кажется".

Все попытки построить подобное устройство пока что выглядят достаточно жалко. Серьезными достижениями считаются прототипы прототипов прототипов, вроде последнего Йельского сверхпроводникового, на два кубита. На фоне этого многочисленные пресс-релизы D-Wave выглядят фантастически, и подтверждение их серьезности со стороны Google было как гром среди ясного неба. Жаль, что увы и ох.

Дальнейшие ссылки по теме для тех, кто хочет почитать об этом без математики и без технических подробностей:
любопытно

не только компьютеры

В 2000 году я съездил на конференцию "Искусственный интеллект". Конференция была в сентябре в Крыму, поэтому доклады были о чем ни попадя, в том числе и о вещах, никакого отношения к AI не имеющих (скажем, некий поц восторженно рассказывал об изобретенных его шайкой "супернадежных дверных замках", мертворожденном устройстве технологического уровня где-то так конца XVIII века).

Так вот, среди прочих выступавших была, не подберу другого слова, тётя из ОАО Камова с докладом об использовании нейрокомпьютеров в управлении вертолетами. На слайдах было несколько фотографий Объекта размером в несколько метров. После доклада люди с аккуратными стрижками и с хорошей осанкой (но в гражданской одежде), задали ей вопрос, насколько вообще маленьким можно сделать БПЛА. Цифра (не помню точно, порядка десятков килограмм) их неприятно удивила, и они задали естественный вопрос: а как же мухи, или хотя бы птицы? В ответ на это тетечка засмеялась и сказала, что в природе оно конечно как-то да, но пока все это абсолютная научная фантастика.

А вот в 2008 году уже никого особенно не удивило такое, например, устройство:
http://www.delfly.nl/?site=DIII&menu=&lang=en
любопытно

Про ООП

Создатели С++ реализовали в языке защищенное и закрытое наследование. Они позволяют отражать в коде вполне понятную и часто встречающуюся абстракцию "Х реализован при помощи Y".

Но, черт возьми, почему же в коде, скопившемся на моем жестком диске, иные варианты наследования, кроме public, встречаются один раз на миллион строк (не метафора, а реальное соотношение*)?

У меня плохая подборка? Или иные варианты наследования, кроме открытого, программистам непонятны и не нужны? Где fault, в самой концепции или в ДНК, и если второе, то в чьем?

Я склоняюсь к тому, что проблема именно в концепции, если точнее, в том, что ее использование не уменьшает число ошибок сколько-нибудь серьезно (в отличие от инкапсуляции, например). И это один из признаков того, что многие конструкции языка так часто используются совсем не по тем причинам, которыми их появление объясняют адепты "попсового" ООП.

*с точностью до порядка из-за дубликатов вроде нескольких проектов на одном движке
любопытно

Ох Nintendo, !...

DS - это железка, у которой пять процессоров и одиннадцать разновидностей памяти разного объема и предназначения. Каждый из процессоров соединен с частью памятей, и имеет несколько режимов работы. Все эти режимы у разных процессоров частично пересекаются по своим функциям. Пара немножко разных графических процессоров - узкоспециализированные игровые, то есть прямо на уровне железа знают о том, что бывают карты, а бывают персонажи (ну не настолько, но практически). Соответственно, к этому всему прилагается API на 500+ функций. И опциональная библиотека для "упрощения" работы с этим API. Еще на столько же. Реально же использовать и то и другое вперемешку - absolute must (кто бы сомневался).

В коде от всего этого никак толком не абстрагируешься, потому что никакой заметной системы (кроме общего правила "сделать как можно больше разных возможностей") за этим не просматривается.

Надеюсь, никакой strictly confidential информации я тут не разгласил.

Утвердился в мнении, что японцы - нация, полученная в результате скрещивания детей и роботов. То-то и мультики у них такие.