Докладчики конференции "Большие Данные в национальной экономике"


на страницу мероприятия

Фуад Алескеров, д.т.н., руководитель департамента математики факультета экономики, НИУ ВШЭ

Профессор,  заведующий Международной лабораторией анализа и выбора решений НИУ ВШЭ, заведующий кафедрой высшей математики на факультете экономики  НИУ ВШЭ, заведующий лабораторией ИПУ РАН. Член ряда международных научных обществ, включая Американское математическое общество (American Mathematical Society) и Royal Economic Society. Участник более 100 конференций, симпозиумов, конгрессов, из них более 50 за рубежом. Осуществлял руководство более 50 прикладными проектами, 24 дипломными работами, 10 кандидатскими диссертациями (4 за рубежом). Руководит работой общемосковских семинаров по анализу нечисловой информации и экспертным оценкам (ИПУ РАН, с 1973 года) и по математическим методам анализа решений в экономике, бизнесе и политике (НИУ ВШЭ, с 2004 года). Почетный работник науки техники РФ, обладатель ряда наград, в том числе первой премии Научного общества имени С.И. Вавилова, первой премии Научного общества им. Попова, медали ордена "За заслуги перед Отечеством II степени" и др. Член редколлегий 9 научных журналов, в том числе "Автоматика и телемеханика", "Экономический журнал ВШЭ", "Проблемы управления", Mathematical Social Sciences и др. Автор и соавтор 10 книг, более 200 статей, из них более 100 в рецензируемых журналах и сборниках.

Доклад на тему "Модели выбора для анализа больших данных"

Предлагаются модели выбора для задачи поиска в анализе больших данных. Эти модели включают процедуры, обобщающие модели, предложенные Г. Саймоном, и другие классические и новые модели выбора, такие как q-Паретовские правила, экстремизационные, экстремизационные с погрешностью, надпороговое, минимаксное  правила и многие другие. Рассматриваются модели суперпозициии этих правил и исследуется их сложность.

Показано, что предлагаемые модели работают эффективнее, чем многие известные правила, в частности Метод Опорных Векторов. Проведено сравнение эффективности различных процедур на данных компании Microsoft.

Михаил Сливинский, руководитель отдела маркетинговой и поисковой аналитики, «Викимарт»

В 1999 году закончил Менделеевский университет с красным дипломом по специальности промышленная биотехнология. Следующие 10 лет работал в ИТ – администрировал сети, создавал сайты, программировал под веб, занимался онлайн-рекламой. Прошедшие пять лет занимаюсь аналитикой поискового продвижения. С 2011 года работаю в компании «Викимарт», руковожу стратегическим развитием seo и созданием инструментов поисковой и маркетинговой аналитики.

Доклад на тему "Возможности извлечения маркетинговой информации в e-commerce"

Мы не занимаемся фундаментальными исследованиями. Наша задача – быстро создавать полезные для e-commerce решения на основе собственной статистики и внешних источников данных. Соответственно,  исследовательская часть заведомо небезупречна и мы знаем об этом. Однако, надеюсь, наши идеи и подходы могут быть интересны. Основные темы доклада:

  1. особенности маркетинга online и offline;
  2. общая задача - понять пользователя на всех стадиях;
  3. что мы хотим знать о покупателе?
  4. собственная статистика и внешние источники данных;
  5. некоторые наши решения:
  • задачи нашей Олимпиады (http://olymp.wikimart.ru/);
  • рекомендательные системы, ранжирование товаров;
  • измерение потребности пользователя в различных типах контента;
  • обнаружение большого количества не очевидных поисковых запросов в заданном кластере.

Светлана Мальцева, и.о. декана факультета бизнес-информатики, НИУ ВШЭ 

Окончила Московский институт электронного машиностроения, доктор технических наук, профессор, заведующая кафедрой инноваций и бизнеса в сфере информационных технологий, и.о. декана факультета бизнес-информатики НИУ ВШЭ.

Доклад на тему "Влияние технологий Больших Данных на дизайн организации"

Большинство компаний сегодня проявляют интерес к возможностям использования технологий Больших Данных, многие компании уже используют эти технологии. Фазы зрелости самой технологии при этом различны, в большинстве случаев это начальные фазы.
Повышение зрелости используемых в организации технологий Больших Данных связано с новыми возможностями оптимизации бизнеса, превращением данных в ценные информационные активы предприятия,  трансформацией самой организации. Критически важными являются изменения в управлении данными,  ИТ-инфрастуктуре в целом, структуре и компетенциях  персонала.
Важной задачей является оценка эффективности внедрения технологий Больших Данных. 

Михаил Комаров, к.т.н., доцент, НИУ ВШЭ

Заместитель декана по международной деятельности, доцент кафедры инноваций и бизнеса в сфере информационных технологий факультета бизнес-информатики НИУ ВШЭ. Выпускник МИЭМ, кандидат наук по специальности "Системы, сети и устройства телекоммуникаций". Участник программы "УМНИК-2008" Фонда содействия развитию малых форм предприятий в научно-технической сфере, финалист программы "СТАРТ", награжден золотыми медалями "Лауреат ВВЦ" за лучший научно-технический проект и за развитие информационных технологий для образования. Входит в группу высокого профессионального потенциала (кадровый резерв НИУ ВШЭ).

Доклад на тему "Источники Больших Данных и современные способы хранения данных"

В рамках доклада будет показана тенденция технологического развития к мобильным сервисам реального времени, будут рассмотрены современные технологии, которые в свою очередь являются источниками Больших Данных, показана одна из ключевых проблем защиты персональных данных при обработке данных, а также кратко представлены современные способы их хранения.

Виктор Топорков, заведующий кафедрой вычислительной техники, НИУ МЭИ

Доктор технических наук, профессор, специалист в области моделирования, методов анализа распределенных вычислительных систем и информационно-управляющих комплексов. Основные научные интересы связаны с организацией вычислений и процессов обработки данных в распределенных системах и средах. 
Автор более 250 научных работ, в том числе нескольких монографий, изданных за рубежом. Результаты исследований, проведенных в области систем реального времени в 80-е годы прошлого столетия, используются в научно-практической деятельности предприятий ракетно-космического комплекса и авиационной промышленности России. В 90-е годы участвовал в ряде проектов ведущих компаний Силиконовой долины по автоматизации проектирования аппаратно-программных систем различного назначения (HW/SW Co-design). Был включен в состав международных рабочих групп по разработке языков описания аппаратуры, в частности, по семантическому определению VHDL. С середины 90-х годов по настоящее время занимается проблемами организации и поддержки распределенных вычислений. Сотрудничает с ЦЕРН в области административных информационных систем (AIS) и грид-технологий. Аккредитован и включен в Федеральный реестр экспертов научно-технической сферы, является экспертом Совета по грантам Президента РФ. Научная биография В.В. Топоркова представлена в серии справочников «Кто есть кто», в том числе Who’s who in Science and Engineering, Who’s who in America (Marquis, США), а также в "Международном биографическом словаре" (IBC, Великобритания, Кембридж).

Доклад на тему "Большие данные и вычислительная наука: место и время встречи"

Вопросы, связанные с большими задачами, для решения которых не хватает вычислительных ресурсов даже суперкомпьютерного класса, привлекают к себе внимание уже не один десяток лет. Однако попытки использования масштабируемых сред заставляют многие проблемы переосмыслить и взглянуть на них по-новому.
Масштабируемость подразумевает возможность наращивания количества процессоров, емкости памяти и независимость пропускной способности коммуникационной системы от числа процессорных узлов, участвующих в вычислениях. Распределенные среды, как известно, характеризуются потенциальной ненадежностью, но не с точки зрения возможного отказа или сбоя компьютеров. Здесь акцент делается на том, что у компьютеров нет никаких обязательств перед самой средой и в любой момент времени они могут отключиться от сети вне зависимости от того, завершена ли обработка выделенного задания. Как же в этом случае обеспечить согласование структуры задания с динамично изменяющимся составом, в общем случае, неоднородных ресурсов для эффективной организации вычислений? Иными словами, как обеспечить масштабируемость среды при соответствующих значениях показателей качества обслуживания.
В докладе основное внимание уделяется новым результатам, полученным в двух направлениях. Одно из них – построение моделей и парадигм распределенных вычислений, наиболее адекватных особенностям масштабируемых сред. Другое – выбор конфигурации ресурсов и планирование вычислений. 

Михаил Цымблер, к.физ.-мат.н., доцент, ЮУрГУ

Начальник отдела интеллектуального анализа данных и виртуализации Лаборатории суперкомпьютерного моделирования Национального исследовательского Южно-Уральского государственного университета, доцент кафедры системного программирования ЮУрГУ. Является автором и соавтором более 40 научных работ. Область научных интересов: системы создания и поддержки проблемно-ориентированных баз данных, архитектура, системное и прикладное программное обеспечение компьютеров и суперкомпьютеров, интеллектуальный анализ данных.

Доклад на тему "Поиск похожих подпоследовательностей временных рядов на сопроцессорах Intel Xeon Phi"

Временной ряд (time series) представляет собой совокупность вещественных значений, каждое из которых ассоциировано с последовательными отметками времени. Задача поиска похожих подпоследовательностей (subsequence matching) заключается в нахождении подпоследовательностей временного ряда, имеющих ту же длину, что и заданный шаблон поиска, и минимальное отличие от шаблона в смысле используемой функции схожести рядов. Задача поиска похожих подпоследовательностей временного ряда возникает в широком спектре научных и прикладных задач из различных предметных областей: медицина, финансы, моделирование климата и др. В докладе представлен параллельный алгоритм решения данной задачи на сопроцессоре Intel Xeon Phi.

Евгений Павловскийк.физ.-мат.н., старший преподаватель, НГУ, директор, "Исследовательские системы"

В 2008 году защитил в НГУ кандидатскую диссертацию по математике. Работал в компании "Новософт" бизнес-аналитиком с 2007 года (проекты: (1) обучение метрологов ЗФ ОАО "ГМК норильский Никель" системе АСОМИ 1.0, (2) формирование требований и ТЗ к АСОМИ 1.4, (3) сертификация АСОМИ 1.4 в РосИспытаниях на соответствие требований совместимости с АИС "Метрконтроль").
В НГУ подготовил курсы по бизнес-анализу (2009), по тайм-менеджменту (2010) и по аналитике больших массивов данных (2014). Выиграл грант фонда Потанина на создание магистратуры по анализу больших данных в НГУ (06.2014).
Осуществлял руководство 18 студентами.
С 2011 года директор компании "Исследовательские системы", созданной по ФЗ-217 совместно с ФГБУ "ННИИПК им. Е.Н. Мешалкина" для применения методов интеллектуального анализа данных в здравоохранении.

Доклад на тему "Научные вызовы Больших Данных"

В докладе предлагаются новые постановки задач в области математики, статистики, теории измерений, теории вероятностей, математической логики, математической лингвистики, возникающие из необходимости отвечать на вызовы Больших Данных.

Андрей Устюжанинк.физ.-мат.н., руководитель проектов CERN и "Яндекс", приглашенный исследователь, Лондонский Имперский колледж

Сотрудник компании "Яндекс" с 2010 года, руководитель совместных проектов "Яндекс"-ЦЕРН с 2011 года. Сотрудник НРЦ "Курчатовский институт" с 2013 года, участник коллаборации LHCb. В настоящее время координирует развитие направления академических программ подразделения Yandex Data Factory. 
С 2002 года Андрей преподает распределенные системы и технику программирования в Московском физико-техническом институте (МФТИ). Окончил МФТИ в 2000 году, кандидат физико-математических наук.

Доклад на тему "Воспроизводимость численных экспериментов"

Одним из больших "секретов" обработки Больших Данных является переход от восприятия отдельных событий к статистически значимым закономерностям системы. Работа с закономерностями позволяет строить модели происходящего и с их помощью прогнозировать развитие системы.  Зачастую понимание таких закономерностей требует от исследователя экспериментального похода – поиск наиболее значимых переменных модели, поиск метрик и подбор различных параметров модели. 
Такие проверки, которые в общем виде принято называть экспериментами, занимают огромное количество времени и ресурсов. Эффективная работа с экспериментами является ключевым фактором эффективности работы с Большими Данными. Одним из важных путей экономии ресурсов, повышения эффективности и прозрачности работ является воспроизводимость экспериментов – возможность получить те же самые результаты на тех же самых входных данных. В докладе я опишу примеры численных экспериментов, с которыми сталкиваются исследователи "Яндекса" и ученые ЦЕРНа, и технические способы повышения воспроизводимости экспериментов.

Сергей Кузнецовд.т.н., главный научный сотрудник,  ИСП РАН

Окончил механико-математический факультет МГУ (1971). Доктор технических наук (1995), тема диссертации "Исследование и разработка свободного SQL-сервера".
С 1989 по 1995 гг. был председателем Совета Советской (Российской) ассоциации пользователей ОС UNIX (SUUG), членом Европейской ассоциации EurOpen, ассоциаций Usenix и Uniforum. Член ACM и ACM SIGMOD, член IEEE Computer Society. Представитель IEEE Computer Society в Москве. Заместитель председателя Московской секции ACM SIGMOD. Член программных комитетов международных конференций DEXA, SOFSEM, ADBIS, ISD, BulticDB, SYRCoDIS.
Был главным редактором журнала "Открытые системы", научным редактором журнала "СУБД". В настоящее время редактор тематической рубрики журнала "Открытые системы", член редколлегии журнала "Вычислительные методы и программирование". С 1995 года ведет преподавательскую работу в МГУ в должности профессора кафедры системного программирования факультета ВМиК.
Работал в ИТМиВТ (1971-1981гг.), НИИ "Дельта" (1981-1991гг.), Институте проблем кибернетики (1991-1994гг.), с 1994 года – в ИСП РАН.
Область научных интересов: управление данными, операционные системы, объектно-ориентированный подход, управление базами данных, информационные системы. Автор свыше 100 научных работ.

Доклад на тему "Большие Данные: разделяй и властвуй"

Сравнительно установившейся идеей является то, что горизонтально масштабируемые системы обработки данных можно основывать только на подходе shared nothing (грубо говоря. на распределенных системах без наличия общих ресурсов между узлами). Легко видеть, что этому подходу в той или иной мере следуют как массивно-параллельные СУБД, так и решения NoSQL (в частности, map/reduce). Однако, как нетрудно заметить, подобные системы хорошо работают только в том случае, когда данные хорошо разделены по узлам системы (грубо говоря, разделение соответствует текущей рабочей нагрузке). И обещанное горизонтальное масштабирование реально возможно только в том случае, когда данные можно эффективно переразделить. Так что реально проблемой Больших Данных является проблема их разделения. Научимся разделять - проблемы почти и не будет.

Владимир Кореньков, д.т.н., директор лаборатории информационных технологий, ОИЯИ, заведующий кафедрой, Международный университет "Дубна"

В 1976 году закончил факультет ВМК МГУ им.Ломоносова. Доктор технических наук. С 2013 года является директором ЛИТ ОИЯИ. С 2000 года – заведующий кафедрой распределенных информационно-вычислительных систем Международного университета "Дубна", профессор, научный руководитель 4 кандидатских работ и более 70 дипломных, магистерских и бакалаврских работ. Читает лекции по курсам "Введение в программную инженерию", "Базы данных", "Грид-технологии и облачные вычисления", "Сети нового поколения", "Проектирование и разработка корпоративных информационных систем". Председатель ГАК по защите магистерских диссертаций в СПбГУ.
Специалист в области сетевых технологий, параллельных и распределенных вычислений, технологий Больших Данных, один из инициаторов развития грид-технологий в России.
Входит в авторский коллектив открытия бозона Хиггса на Большом адронном коллайдере, автор около 300 публикаций, организатор более 50 международных и российских конференций, симпозиумов, школ.

Алексей Климентов, к.физ.-мат.н., Брукхейвенская национальная лаборатория (США)

В 1982  году закончил Московский инженерно-физический институт (МИФИ). Кандидат физико-математических наук. Автор около 500 научных публикаций.  
Член программных научных советов международных конференций (Computing in High Energy Physics CHEP2012, CHEP2013, CHEP2015, Nuclear Electronics and Computing и NEC2011, NEC2013). Член советов эксперимента ATLAS (ЦЕРН) по мета-данным, вычислительной модели, вычислительным мощностям. Координатор проекта распределенных вычислительных систем и обработки данных эксперимента АТЛАС по вопросам программного обеспечения, высокопроизводительным вычислениям и компьютингу. В проекте участвуют более 100 физиков и специалистов области вычислительной техники из 60 лабораторий и институтов многих стран.

Доклад на тему "Распределенные вычисления и Большие Данные в ядерных исследованиях (на основе опыта России и ОИЯИ)"

В докладе представлена концепция и эволюция глобальной компьютерной инфраструктуры  для хранения, обработки  и анализа данных экспериментов на Большом адронном коллайдере в ЦЕРН. Дается краткая информация об участии России в этом процессе. Представлен обзор проектов в области распределенных вычислений и Больших Данных, выполненных Лабораторией информационных технологий (ЛИТ ОИЯИ) в России, ЦЕРН, США, Китае, странах — участницах ОИЯИ.
Особое внимание уделено созданию центра уровня Tier1 в России для хранения и обработки данных экспериментов на Большом адронном коллайдере, развитию облачной и гибридной инфраструктуры, а также модели компьютинга  мегапроекта NICA в ОИЯИ. Представлены результаты и планы развития  платформы  для управления Большими Данными.

Алексей Вовченкок.т.н., страший научный сотрудник, ИПИ РАН

Кандидат технических наук, старший научный сотрудник Лаборатории композиционных методов и средств построения информационных систем Института проблем информатики РАН. Окончил факультет ВМиК МГУ в 2007 году, и аспирантуру того же факультета в 2010 году. С 2006 года сотрудник ИПИ РАН. Автор спецкурсов "Управление разно-структурированными большими данными" и "Извлечение и интеграция сущностей из больших данных", читаемых на факультете ВМиК МГУ для студентов старших курсов и студентов магистратуры. Область научных интересов: виртуальная и материализованная интеграция неоднородных информационных ресурсов, базы данных и базы знаний, большие данные, облачные вычисления, проблемно-ориентированные базы данных, извлечение знаний.

Сергей Ступников, к.т.н., старший научный сотрудник, ИПИ РАН

Кандидат технических наук, старший научный сотрудник Лаборатории композиционных методов и средств построения информационных систем Института проблем информатики РАН. Окончил механико-математический факультет МГУ в 2000 году, в том же году поступил на работу в ИПИ РАН. С 2009 года – сотрудник ВМиК МГУ, читает лекции в рамках курсов "Объектные базы данных", "Методы и платформы интеграции данных". Член программных комитетов ряда российских и международных конференций по информатике и базам данных. Автор и соавтор 60 статей, опубликованных в российских и международных журналах и трудах конференций. Область научных интересов: языки спецификаций; модели данных, их семантика, отображения и трансформации; интеграция данных. 

Доклад на тему "Методы и инфраструктуры интеграции разнородных Больших Данных"

В докладе рассматривается архитектура комбинированной виртуально-материализованной среды интеграции неоднородных коллекций данных различного вида (структурированных, слабоструктурированных и неструктурированных). Необходимость поддержки двух различных видов интеграции объясняется тем, что как виртуальный, так и материализованный подходы к интеграции имеют свои достоинства и недостатки. Виртуальная интеграция осуществляется с использованием технологии предметных посредников. Материализованная интеграция реализуется с использованием свободно распространяемой платформы распределенного хранения и обработки данных Hadoop; а также системы организации реляционных хранилищ данных над Hadoop, в качестве которой могут использоваться платформы Big SQL или Hive.

Андрей Дмитриев, д.физ.-мат.н., профессор, НИУ ВШЭ

Доктор физико-математических наук, профессор кафедры корпоративных информационных систем НИУ Высшая школа экономики. Автор более 50 статей, а также 4 монографий и учебников по математическому моделированию систем. Сфера научных интересов – качественная теория обыкновенных дифференциальных уравнений и систем уравнений, применение теоретико-вероятностных  и статистических методов, нелинейные динамические системы.

Доклад на тему "Предсказательная аналитика на основе потоков Больших Данных"

Дается краткий обзор методов предсказательной аналитики на основе потоков больших массивов данных, генерируемых в режиме реального времени. Более подробно обсуждаются возможности и ограничения  методов  детектирования кризисов и предкризисных режимов кризисов в данных потоках. Предложена нелинейно-динамическая модель, генерирующая временные ряды рыночных цен спроса и предложения с одним фундаментальным управляющим параметром. Калибровкой данного параметра по историческим данным и выделением интервалов его постоянства при определенных условиях удалось детектировать предкризисные режимы. Данная модель апробирована на биржевых данных по ценам спроса и предложения на драгоценные металлы и стальные биллеты. Разработано приложение, позволяющее на основе данной динамической модели детектировать предкризисные режимы в потоках больших массивов данных, генерируемых в режиме реального времени.

Сергей Березинк.физ.-мат.н., доцент, руководитель совместного исследовательского центра МГУ-Microsoft Researchр, МГУ имени М.В. Ломоносова

Доцент факультета Вычислительной математики и кибернетики МГУ имени М.В. Ломоносова. В 1999 году закончил с отличием МГУ имени М.В. Ломоносова, в 2002 году защитил диссертацию, посвященную применению методов компьютерной графики в задачах динамического поиска. С 2002 года работает на факультете ВМК МГУ, где читает авторские курсы по компьютерной графике и программированию на платформе Microsoft.NET.
 
Руководит совместным исследовательским центром МГУ-Microsoft Research. Коллектив центра успешно сотрудничает с группой вычислительных наук в Microsoft Research Cambridge и инженерным подразделением Microsoft Research Redmond. Среди совместных проектов можно назвать облачный сервис предоставления климатических данных FetchClimate, библиотеку обработки и визуализации научных данных Project Dmitrov и интерактивное приложение для визуализации Универсальной истории «Хронозум».
 
Научные интересы Сергея Березина включают задачи визуализации, обработки больших наборов данных, применение облачных вычислений и современных технологий программирования к решению задач математического моделирования.

Доклад на тему "Облачные технологии в естественных и гуманитарных науках"

В докладе будут рассмотрены облачные приложения FetchClimate и "Хронозум", совместно разработанные Microsoft Research и МГУ им. М.В. Ломоносова. FetchClimate ориентирован на специалистов в области вычислительного моделирования и предоставляет пользовательский интерфейс и web-сервис для получения климатических данных. "Хронозум" – ориентированное на историков и представителей гуманитарных наук приложение для визуализации Универсальной истории. На примере FetchClimate и "Хронозум" будут рассмотрены вопросы создания, практического применения и возможного развития облачных приложений для работы с научными данными.