Докладчики Big Data 2013


Сергей Золотарев, руководитель направления «Большие Данные», ЕМС в России и странах СНГ

Имеет большой опыт в развитии новых направлений бизнеса и продвижении новых решений и продуктов на рынке. Более 15 лет в ИТ индустрии. Темой «Большие Данные» занимается последние 1,5 года. До работы в ЕМС работал в компаниях Jet Infosystems, AVAYA, MICROSOFT, COMPAQ.

«Большие Данные: от теории – к практике, или Как заставить технологии работать на вас»

Большие данные: от теории - к практике, или как заставить технологии работать на васЗа прошедший год мы увидели две очень четких тенденции. С одной стороны, практически все крупные компании окончательно «поверили» в тему Больших Данных, а самые прогрессивные стали использовать  данные и технологии их обработки для решения конкретных бизнес-задач и получения конкурентных преимуществ на рынке. Тем не менее в России пока преобладает выжидательная позиция, несмотря на то что на рынках США, Европы и особенно Азии появляются десятки примеров реализации проектов  подобного рода. Сейчас, чтобы убедить российские компании инициировать аналогичные проекты, необходимо показывать как можно больше конкретных релевантных примеров , что мы и сделаем в своем выступлении. С другой стороны, многие технологии, которые пришли из открытых интернетовских проектов, становятся более зрелыми и очень быстро «дотачиваются» под требования корпоративного рынка. Часть таких технологий видоизменяется и консолидируется  в решения , которые за счет интгерации позволяют реализовать для пользователей принципиально новый функционал, всего полгода назад отсутствовавший в принципе. Все это позволяет предлагать новые подходы к решению задач наших клиентов, и об этом также пойдет речь в выступлении.

 


Илья Гершанов, старший консультант по направлению аналитики больших данных, EMC Greenplum

Илья Гершанов – отвечает за развитие направления аналитики больших данных в EMC Greenplum. В 1999 году окончил Московский Авиационный Институт (МАИ) по специальности «Прикладная Математика и Физика», в 2004 году защитил кандидатскую диссертацию по тематике Математические методы обработки данных. Более 15 лет занимается решениями в области хранилищ данных, аналитики и отчётности в Банковском секторе и российских интеграторах.

Технический семинар: «EMC Greenplum – MPP-платформа для задач аналитики Больших Данных»

Новые задачи аналитики в корпорациях ставят, казалось бы, противоречащие друг другу требования по одновременному использованию как структурированных, так и неструктурированных данных, или сочетанию пакетной загрузки данных и загрузки в режиме реального времени. Технический семинар посвящён возможностям платформы для анализа Больших Данных EMC Greenplum сочетать эти аспекты в рамках единой среды и успешно решать поставленные задачи. Кроме собственно технической демонстрации будет рассмотрена архитектура EMC Greenplum.

 


Алексей Сидоров, технический директор, Informatica Россия и страны СНГ

Имеет 20-летний опыт работы в ИТ-бизнесе, более 10 из них занимается проблемами интеграции данных и построения КХД. Долгое время руководил платформой по Интеграции Данных корпорации Nokia в Финляндии. После возвращения в Россию работал в области построения больших Хранилищ Данных в компаниях Deutsche Bank и Teradata. С июля 2011 года занимается продвижением решений компании Informatica на рынке России и СНГ.

«Informatica. Большие Данные для Физиков и Лириков»

«В данном выступлении рассказывается о двух проектах компании Informatica  в области Больших Данных.
В первом случае технологии BigData применены для объединения легковых автомобилей крупнейшего европейского концерна в единую сеть (Connected Vehicle Program), что позволило по-новому взглянуть на задачи обслуживания, ремонта, страхования и мониторинга транспортных средств.
Вторая часть выступления представит нам технологии Больших Данных с несколько неожиданной стороны.  Американская компания eHarmony анализирует десятки психологических параметров и паттернов поведения и использует исторические данные за 35 лет для предоставления научных рекомендаций по выбору … спутника жизни».

«Максимальная отдача от Больших Данных  с помощью решений  Informatica»

Большие Данные состоят из 3-х схожих и одновременно различных технологических трендов: Большие Транзакционные Данные, Большие Интерактивные Данные и Обработка Больших Данных Рост Транзакционных данных примерно равен 40% в год. Большие Интеракционные данные увеличиваются 3-4 раза в объеме  за год за счет появления разнообразных социальных сетей, таких как Facebook, Twitter и LinkedIn, а также за счет новых источников данных - данных сенсорных устройств, записи информации о звонках (CDR), радиочастотная идентификация (RFID) и т. д. Весь этот объем масс данных оказывает значительное давление на существующую ИТ инфраструктуру предприятий.   Компании не могут справиться с таким уровнем роста объемов данных при помощи стандартных технологических решений. Единственным решением становится применение кластерных технологий с использованием недорогого аппаратного обеспечения,  например, таких, как Hadoop.
Для осуществления проектов по Большим Данным использование Hadoop совместно с существующей инфраструктурой позволяет обрабатывать данные в размере петабайтов и снижает давление на Хранидища Данных и Базы Данных, что означает, что процессы по интеграции данных должны быть максимально усовершенствованы, чтобы сделать возможным  обмен и перемещение данных в новые кластеры  и обратно.

В свете вышеперечисленного встают вопросы:

  • каким образом возможно контролироватть расходы, если рост данных происходит в геометрической прогрессии?
  • каким образом можно обрабатывать нестандартные  типы данных поступающие с устройств нового поколения?
  • как соединить данные реального времени и исторические данные для принятия бизнес-решений?

Иными словами, как можно получить максимальную отдачу от Больших Данных?

 

Петр Борисов, менеджер по развитию направления Big Data, DIS Group

Петр Борисов отвечает в DIS Group за развитие новых направлений. Имея более чем десятилетний опыт работы в ИТ-индустрии, Петр в течение последнего года занимается направлением Big Data, включая проработку как технических аспектов применения технологий данного класса, так и позиционирования подобных решений в инфраструктуре заказчиков. До работы в DIS Group Петр занимался развитием системы корпоративной отчетности. Закончил Московский Государственный Технический Университет СТАНКИН, факультет «Информационные технологии».


Александр Сивохин, ведущий консультант по направлению Big Data, DIS Group

Александр Сивохин является одним из ведущих консультантов DIS Group по направлению Big Data. В 2012 году Александр прошел обучение и сертификацию по технологии Hadoop в компании Cloudera (Германия). До работы в DIS Group Александр в течение 7 лет работал инженером-программистом. Закончил Смоленский Государственный Педагогический Университет, Физико-математический факультет, математика и информатика. 

Мастер-класс: «Как победить слона, или Реальный опыт проекта по внедрению Hadoop».

На семинаре мы планируем рассказать о технических нюансах и тонких моментах, на которые нужно обращать внимание при внедрении технологии Hadoop. Сам семинар будет построен вокруг конкретной задачи и реального проекта по ее реализации с применением данной технологии.

 

Максим Северин, менеджер проекта «Крипта», «Яндекс»

Андрей Красников, ведущий разработчик проекта «Крипта», «Яндекс»

Мастер-класс: «Использование технологий машинного обучения в рекламе»

Машинное обучение – мощный и перспективный инструмент, который позволяет использовать возможности, заложенные в больших объемах данных. На мастер-классе мы расскажем о том, как мы используем машинное обучение в рекламе, приведем примеры использования машинного обучения в разных сферах жизни,  а также поделимся конкретными инструментами, которые любой человек с минимальными техническими знаниями может начать использовать сразу после мастер-класса.

 


Павел Литвинов, CIO, «ИНВИТРО»

«Большие Данные в медицине: проблема или конкурентное преимущество?»

В докладе будет продемонстрирован опыт работы с Большими Данными «Независимой лаборатории ИНВИТРО». С какими трудностями обычно сталкиваются медицинские компании, владеющие Большими Данными? Дает ли владение Большими Данными преимущество перед конкурентами в медицинском сегменте?

 

Иван Тимофеев, директор канала продаж в России и СНГ, HP EMEA

Отвечает за Управление каналом продаж продуктов и развитие бизнеса потфеля Autonomy Information Management подразделения  HP Software в России и СНГ. В сферу  компетенции входит работа с парнёрами и конечными заказчиками для выработки оптимальной архитектуры и руководство разработкой комплексных решений в области резервного копирования, архивации данных и решений на основе портфеля Autonomy для текущих задач современного рынка IT. В IT индустрии работает с 1999 года, в HP с 2010 года. До этого работал в различных международных (Huawei, Alcatel-Lucent) и российских организациях. С отличием закончил Московский Технический Университет Связи и Информатики по специальности «Цифровые сотовые системы связи».

«HP Autonomy. Информация - главный актив компании»

Рост требований информационного надзора и взрывной рост объемов и сложности информации требует от каждой организации применять новые подходы, помогающие управлять информационными процессами и формировать 100%ное понимание информации, воспринимаемой человеком, в режиме реального времени. Эта информация включает в себя все – начиная от текстовых, аудио_, видео_данных, информации социальных сетей, баз данных и заканчивая данными, порожденными приборами и датчиками. Это разнообразие информации выносит значимость Управления данными за пределы традиционных ИТ-преимуществ: консолидации данных, устранение дублирования данных и управление их жизненным циклом. Сегодня основной причиной организации системы работающей с Большими данными является получение контроля над информацией для обеспечения соблюдения правовых, нормативных,IT и внутренних, бизнес-ориентированных политик. Успешные внедрения таких решений позволяют организациям находить, удалять, исследовать и содержать в неизменном состоянии информацию требуемое время (legalhold). Мы рассмотрим несколько примеров внедрений в крупных мировых компаниях и на этих примерах покажем функциональное преимущества автоматизированной системы работы с Большими данными, с кластеризацией и категоризацией информации

 

Антон Иванов, начальник отдела комплексного пресейла департамента «Центр Разработки Инфраструктурных решений», «Ай-Теко»

Окончил Московский Институт Радиотехники, Электроники и Автоматики по специальности «Искусственный Интеллект». Основным направлением деятельности является продвижение инновационных технологий и продуктов и техническое сопровождение продаж в комплексных проектах. До компании «Ай-Теко» более пяти лет проработал в компании «Хьюлетт-Паккард» на должности на должности технического консультанта по решениям корпоративного уровня.

Технический семинар: «Практика и опыт внедрения решений на базе HP Autonomy на примере нескольких крупных компаний»

Большие объемы данных ставят перед компаниями сложные задачи в области их хранения и обработки. Однако эти же данные могут служить главным источником знаний, и тут действует обратная зависимость: чем больше данных есть в закромах компании, тем точнее будут результаты анализа. Методы анализа должны соответствовать большим объемам данных. Доклад посвящен использованию решений HP Autonomy для анализа данных из различных источников. Будут рассмотрены такие аспекты, как возможности, архитектура и способы применения технологий HP Autonomy для решения корпоративных задач.


Вячеслав Цыганов, вице-президент, CIO, «Тинькофф Кредитные Системы»

Смомента основания компании «Тинькофф Кредитные Системы» отвечает за создание и внедрение технологий, направленных на формирование конкурентных преимуществ в банковской рознице. Одним из приоритетов действующей ИТ-стратегии выделяет непрерывное развитие в компании культуры принятия решений на основе анализа данных и поддержание института бизнес-аналитиков. Ярким примером в этой области стал успешный проект по созданию хранилища реального времени на базе продуктов ЕМС Greenplum. До перехода в «Тинькофф Кредитные Системы» возглавлял практику системного анализа известного FMCG холдинга. Среди реализованных проектов - крупнейшее в Европе внедрение ERP Microsoft Dynamics.

«[не] Большие Данные {не} самого большого Банка»

Финансовые организации, которые используют Большие Данные для аналитики и принятия решений, являются гораздо более эффективными и получают большую прибыль на собственный капитал, чем их конкуренты, которые этого не делают. В самое ближайшее время данные займут место полноценного актива организации, который будет оказывать влияние абсолютно на все направления бизнеса, становясь источником нового конкурентного преимущества. Для компаний розничного сегмента они в большей степени сконцентрированы в области взаимодействия с существующими и новыми клиентами и позволяют максимально персонализировать предлагаемые продукты и услуги, а также моделировать поведение клиентов в режиме реального времени. А применение алгоритмов машинного анализа позволяет не только повысить эффективность существующих бизнес-процессов, но и выявить ту информацию, которая до этого оставалась неочевидной. Доклад будет посвящен опыту ТКС в области Больших Данных.

 

Даниил Калядин, менеджер по развитию бизнеса, Software AG

Даниил Калядин имеет многолетний опыт работы в ИТ-индустрии и консалтинге в области процессного управления (BPM), а также опыт работы с платформой программных продуктов ARIS. Даниил работает с заказчиками во всех крупных отраслях (ИТ, энергетика, ритейл, финансы). До прихода в компанию Software AG работал в компании Ernst&Young, где принимал участие в проектах по ИТ-аудиту и ИТ-консалтингу в области технологических и  информационных рисков. В работе с заказчиками главным интересом для него является акцент на быстрые и достижимые результаты.

«Большие данные - не только аналитика»

Данные используются людьми, люди используют приложения для анализа и обработки данных. Как получить наиболее эффективный и быстрый доступ к данным для анализа? Хранить их в оперативной памяти, там, где работает приложение. Решение компании Terracotta BigMemory дает все возможности по хранению и обработке любого массива данных в оперативной памяти.
В докладе мы расскажем о том, какие задачи компании можно  решить с помощью BigMemory в онлайн приложениях, управлении рисками, торговле на финансовых рынках, логистике.
Также будут приведены примеры реальных проектов с использованием продуктов компании Terracotta.

 

Александр Пинский, директор по развитию бизнеса, «Терадата»

В сфере информационных технологий работает с 1998 г. В корпорацию Teradata пришел в 2010 г. с позиции CIO «Киевстар GSM». Ранее работал в ОАО «Ситроникс», где прошел путь от руководителя проектов «Квазар-Микро» до директора по развитию процессов и систем управления штаб-квартиры «Ситроникс».

«Большие данные - большой вызов»

Терадата как многолетний лидер аналитических хранилищ данных. «Терадата работала с Big Data еще до того, как появился сам термин Big Data». Big Data - новая ступень в развитии аналитики. Примеры применения «Больших данных» для решения разных бизнес-задач. Единая архитектура данных (UDA) от Терадаты для интеграции Big Data в аналитическую инфраструктуру предприятий

 

Михаил Ганюшкин, ведущий архитектор, «Терадата»

Выпускник Московского Института Радиотехники, Электроники и Автоматики, с самого начала своей карьеры был неразрывно связан с информационными технологиями. Почти 10 лет проработал инженером внедрения биллинговых систем, объездив большое количество стран и участвуя в различных телеком-стартапах и миграциях. 1,5 года назад присоединился к команде архитекторов решений компании Teradata, расширив поле деятельности новыми индустриями, такими как финансы, энергетика, ритейл, и сместив фокус в сторону управления данными и построению аналитических решений для бизнеса.

Технический семинар: «Вам TUDA: Teradata указывает правильное направление для освоения Big Data»

Big Data - большой интерес, но мало понимания. Лучшее решение - решение принятое с использованием данных. Но для управление данными необходимо научиться не только их измерять, нужно иметь к ним мгновенный доступ, для чего понимать, как правильно разместить нужные данные в нужном месте. Teradata Unified Data Architecture как единое решение по организации Ваших данных – ответ вызовам мирового тренда Big Data.


Сергей Кузнецов, профессор, руководитель отдела, «Институт системного программирования РАН»

Сергей Кузнецов – один из ведущих российских экспертов в области баз данных и ОС UNIX, представитель IEEE Computer Society в Москве. Является заместителем председателя Московской секции ACM SIGMOD, членом ACM, членом программных комитетов международных конференций DEXA, SOFSEM, ADBIS, ISD, BulticDB, SYRCoDIS. Основные результаты научной деятельности: операционная система ЦП АС-6, кластерная операционная система (КЛОС), GNU SQL-сервер, система виртуальной интеграции данных BizQuery, система управления базами XML-данных Sedna. Автор свыше 100 научных работ и двух учебников.

«NoSQL – попытка уйти от проблем?»

Доклад посвящен горизонтальному масштабированию транзакционных данных и связи этой проблемы с теоремой CAP. Выступающий предложит свое видение причин возникновения одной из ветвей направления NoSQL. 

 

Сергей Карелов, председатель Совета, «Лига независимых экспертов» (ЛИНЕКС)

Сергей Карелов работает в сфере IT более 30 лет. Занимался моделированием ядерных реакторов, руководил подразделениями крупных вычислительных центров, работал на позициях топ-менеджера в «Интерквадро», IBM, Silicon Graphics (SGI). Принимал участие и руководил многими крупными IT-проектами в областях науки и образования, машиностроения, нефтедобычи и медиа-технологий.
Имеет опыт и знания в вопросах реализации и внедрения масштабных инновационных проектов практически во всех странах Европы. С 2001 года - независимый эксперт-консультант по IT-бизнесу, с 2004 - председатель Совета Лиги независимых экспертов ЛИНЭКС. В 2010 стал сооснователем и СТО компании Witology, разрабатывающей новое поколение технологий - интеллектуальный краудсорсинг. Кандидат технических наук.

«Big Data - Много данных? Много денег? Или смена вычислительной парадигмы?»

Big Data - это всего лишь количественное накопление огромных объемов информации, для извлечения из которых хоть какого-то толка уже не годятся имеющиеся суперкомпьютеры, сети, базы данных и информационные хранилища. Таково мнение прагматиков  и консерваторов, считающих, что переход к распределенной, неограниченно масштабируемой аппаратной и программной инфраструктуре хранения, обработки и извлечения  информации (желательно с открытым доступом) способен решить все вопросы по работе с Big Data.
Не так считают визионеры и энтузиасты. По их мнению, Big Data – это проявление смены парадигмы (Paradigm Shift) использования информации, как отдельными людьми, так и всем человечеством. До последнего времени, сталкиваясь с необходимостью решить какую-то задачу, человек следовал простой и понятной последовательности этапов:

  • найти способ/алгоритм решения,
  • собрать данные, необходимые для решения,
  • применить избранный алгоритм к имеющимся данным.

Смена парадигмы использования информации открывает иной, доселе невиданный подход  к решению всевозможных задач человеком. Он примерно таков:

  • организовать сбор и анализ всей доступной информации о процессах, происходящих в области решаемой задачи,
  • наладить в возникающем гигантском потоке информации постоянное выявление и анализ «информационных паттернов» (последовательностей и связок информационных элементов) для построения на их основе  моделей наблюдаемых процессов,
  • выявить с помощью постоянно уточняемых и развиваемых моделей системы закономерностей, позволяющие найти ответы как на уже поставленные, так и на еще не поставленные вопросы.

 

Михаил Герштейн, ведущий  архитектор комплексных решений, «Сбербанк КИБ»

С 2009 года – в Тройке Диалог (теперь Сбербанк CIB), главный архитектор комплексных решений. С 2003 по 2009 год работал в Credit Suisse, в департаменте R&D, специализирующемся на изучении и внедрении новых технологий, на должностях архитектора и ведущего архитектора баз данных. В 1998-2003 гг. работал в Telcordia Technologies (бывший BellCore) ведущим разработчиком баз данных и Java-продуктов, руководителем команды разработчиков. В 1993-1998 гг. был ведущим разработчиком ПО и баз данных в Chase Manhattan Bank (ныне JPMorgan Chase).

«Использование Greenplum в Сбербанк КИБ»

В докладе анализируется опыт использования решения Greenplum в различных проектах Сбербанк КИБ. Рассматривается использование Greenplum в задачах тираживания данных из OLTP системы в условиях, приближенных к режиму реального времени, а также для сбора и анализа ретроспективных данных и генерации отчетов.

 

Ольга Горчинская, директор по исследовательским проектам, «ФОРС»

Ольга Горчинская - директор отделения исследовательских проектов и руководитель направления Big Data компании ФОРС, к.т.н., доцент ВШЭ, проработала в  представительстве корпорации Oracle в Москве около 15  лет. В 1976 году окончила Московский институт электроники и математики (сейчас входит в состав Высшей школы экономики) по специальности «Прикладная математика». Кандидатская диссертация Ольги была посвящена теории реляционной модели баз данных.  В дальнейшем научные интересы г-жи Горчинской охватывали новые на тот момент области, связанные с построением хранилищ данных, аналитическими технологиями и системами бизнес-анализа. В 1993 году Ольга Горчинская пришла в ФОРС - только что созданную ИТ-компанию, которая ставила своей задачей продвижение технологий Oracle в России.  Через несколько лет Ольга продолжила свою карьеру в Oracle, а в 2012 году вернулась  в ФОРС и возглавила новое, перспективное направление Big Data.

«От бизнес анализа к исследованию Больших данных»

Доклад посвящается вопросам анализа Больших данных. Основная цель – показать, как принципиально меняется сам подход к анализу информации при переходе от классических хранилищ к Большим данным.
Традиционный бизнес-анализ – это прежде всего сложные и интенсивные вычисления в рамках четко определенной модели данных. Важнейший принцип – данные  должны быть предварительно согласованы, выверены, их качество не должно вызывать сомнения, структура и состав данных заранее определен. Только в этом случае можно достоверно по детальным данным выполнять сложное агрегирование, вычислять новые показатели, моделировать и прогнозировать. В случае больших данных подход к аналитике существенно меняется. Основной задачей становится не столько вычисления, сколько  поиск полезного, причем этот поиск интуитивный. Структура и состав данных заранее неопределены или очень быстро меняются, поэтому задача состоит не столько в получении ответа, сколько в том, чтобы  понять, какой должен быть вопрос. 
Достаточно ли приспособить традиционные средства бизнес-анализа для данных сверхбольших объемов, что из традиционных аналитических инструментов можно использовать для больших данных и для каких задач этого недостаточно, чем инструменты нового класса Data Discovery отличаются от BI-систем? Эти вопросы рассмариваются в докладе не только с теоретических позиций, но и иллюстрируются практическими примерами аналитических задач, технологий и инструментов.

 

Роман Ройфман, ведущий архитектор решений, NetApp

Закончил Новосибирский Государственный Технический Университет по специальности прикладная математика. Роман Ройфман является ведущим архитектором решений в  представительстве  NetApp в России и странах СНГ. Роман Ройфман работает в сфере информационных технологий более 17 лет. В компании  NetApp  - с 2004 года. До этого Роман Ройфман  работал более 9 лет в компании Sun Microsystems. 
 
«Крупноблочное строительство решений Big Data»

Решения NetApp для управления Big Data: теория построения и практика использования.

 

Андрей Пивоваров, руководитель группы перспективных технологий департамента предпроектного консалтинга, Oracle СНГ

Андрей Пивоваров окончил Московский Авиационный институт. В представительство Oracle СНГ пришел в 2003 г. на должность консультанта по технологиям бизнес-анализа и хранилищам данных. С 2007 до 2011 г. возглавлял группу хранилищ данных в департаменте предпроектного консалтинга по технологиям Oracle. В настоящее время является , руководителем группы перспективных технологий департамента предпроектного консалтинга.

«Опыт тестирования и реальные примеры использования технологий Oracle для обработки Больших Данных в проектах в России и в мире»

В последние несколько лет во всем мире отмечается взрывной рост интереса к теме Больших Данных. Но если еще год назад в основном задавались вопросы типа «Что такое Большие Данные?» и «Что собой представляют технологии обработки Больших Данных?», то сегодня потенциальных заказчиков больше интересуют вопросы конкретных применений и преимуществ этих технологий. В докладе будет сделан акцент на задачи, которые могут быть интересны для российских заказчиков, и приведены примеры реальных проектов, в которых уже используются технологии Oracle для обработки Больших Данных.


 

Андрей Устюжанин, исследователь-разработчик, «Яндекс»

«Поиск новой физики с помощью методов машинного обучения в ЦЕРН»

В докладе будет рассказано о том, как технологии машинного обучения помогают решать фундаментальные проблемы Вселенной и отвечать на сложные научные вопросы. В качестве примера выбран анализ распада странного B-мезона на мюон-антимюонную пару, зарегистированный в ЦЕРНе и обнародованный в конце 2012 года. Почему этот распад оказался так важен для современной физики? В докладе будет рассмотрен процесс обработки данных, получаемых в экспериментах на большом адронном коллайдере (БАК), этапы анализа этих данных. Выступающий покажет, какие технологии и библиотеки машинного обучения привлекаются для поиска событий. Отдельное внимание будет уделено критериям качества, используемым для подбора формулы классификатора. В заключении будет затронута роль Яндекса в развитии методов анализа экспериментов на БАК.

 

Константин Замков, специалист по корпоративным технологиям, Intel

Окончил факультет вычислительной математики и кибернетики МГУ. Работает в Intel с 2004 года: специализировался на поддержке и маркетинге серверных платформ. С 2008 года занимает позицию специалиста по корпоративным технологиям, работает с крупными конечными заказчиками. С 2012 года специализируется на работе с крупнейшими интернет-порталами.

«Технологии Intel для аналитики нового поколения»

Свой вклад в развитие современной аналитики и технологий обработки больших массивов данных компания Intel видит в трех направлениях. Первое направление – создание аппаратных систем для обработки больших объемов данных. Второе – помощь корпоративным заказчикам в создании универсальных и открытых облачных решений. И третье направление – развитие экосистемы с открытыми исходными программными кодами. В докладе будет рассказано о коммерческом дистрибутиве Apache Hadoop*, поставляемым компанией Intel (полное название Intel® Distribution for Apache Hadoop). Для обеспечения высокой производительности и надежной степени защиты дистрибутив включает широкую поддержку аппаратных возможностей современных серверных платформ. Компоненты серверных платформ включают в себя серверные процессоры Intel® Xeon®, твердотельные накопители Intel®, сетевые 10-гигабитные контроллеры Intel и ряд других ингредиентов. Справиться со сложностью развертывания и управления комплексом программного обеспечения Apache Hadoop* поможет пакет Intel Manager. Компания Intel активно сотрудничает с поставщиками аппаратных решений, разработчикам открытого и коммерческого программного обеспечения, а также экспертами в области современной аналитики для раскрытия потенциала возможностей обработки «больших данных».

 

Вячеслав Архаров, менеджер по маркетингу платформы приложений, Microsoft

Окончил Технический Университет по специальности Радиотехника. Работал в компании Avaya на позициях от специалиста по системной интеграции до менеджера по маркетингу направления Applications. С 2008 года - ведущий менеджер по маркетингу платформы приложений Microsoft.

«Решения Microsoft для работы с BigData»

Компания Microsoft является одним из лидеров рынка в области работы с BigData.  Программные продукты Microsoft охватывают весь спектр задач, от небольших локальных баз данных до глобально распределенных хранилищ с паралелльно-массивной обработкой. Сюда же можно включить системы бизнес-аналитики, как традиционные, так и in-memory и системы хранения и анализа неструктурированных данных практически неограниченного объёма. В данной презентации пойдет речь комплексной платформе Microsoft для обработки BigData на всех этапах – от сбора и хранения до анализа и глубинного исследования.

 

Игорь Агамирзян, генеральный директор и председатель правления, «РВК»

С 1995 по 2007 год работал на разных должностях в представительствах компании Майкрософт  в Великобритании, Центральной и Восточной Европе и на Ближнем Востоке.  В 2007–2009 гг. - генеральный директор Центра разработки программного обеспечения корпорации ЕМС в Санкт-Петербурге. В 2009–2012 гг. - член комиссии при Президенте РФ по модернизации и технологическому развитию экономики России. Опубликовал более 25 научных работ по проблемам информационного общества и компьютерного бизнеса.

«Big Data как венчурный проект»
 
Надежды ИТ-индустрии связаны  с новым и крайне перспективным направлением Big Data. В технологию инвестируют государства, транснациональные корпорации и венчурные капиталисты. Есть ли в зарождающейся на наших глазах индустрии место для российского венчура?
 
 
 
 
 
Дмитрий Красилов, директор центра систем управления данными, «Энвижн Груп»
 
Красилов Дмитрий Владимирович родился в 1984 г. В 2006 г. окончил Академию Федеральной службы безопасности Российской Федерации по специальности «Прикладная математика и информатика». В том же году пришел работать в органы ФСБ России в должности администратора баз данных Oracle. В 2010 г. перешел в «Энвижн Груп» на позицию специалиста отдела разработки департамента бизнес-систем. Через полтора года был назначен директором центра решений систем управления данными.
 
«Big Data на службе у операторов связи»
 
Телекоммуникационная отрасль является одной из самых динамичных и технологически развитых отраслей, с очень высокой конкуренцией. В борьбе за клиента компании ориентированы на прогнозирование изменений в предпочтениях пользователей, поиск новых возможностей для удовлетворения рыночного спроса, повышения качества оказываемых услуг. Для реализации этих задач «Энвижн Груп» предлагает решение, обеспечивающие эффективную работу с данными в режиме реального времени. Этот программно-аппаратный комплекс, который позволяет повышать уровень управления лояльностью абонентов, снижать их отток, стимулировать  использование определенных продуктов или услуг, выявлять проблемы, с которыми сталкиваются абоненты при использовании сервисов связи.
 
 
 
Сергей Лихарев, руководитель по развитию бизнеса IBM Big Data, IBM Центральная и Вотосточная Европа (CEE)
 
Сергей Лихарев является руководителем направления IBM Information Management в России и СНГ. В области развития бизнеса и руководства проектами создания информационных систем Сергей специализируется более 17 лет. Окончил Рязанский радиотехнический университет по специальности «Автоматизация информационных процессов». В сферу ответственности Сергея входят решения и платформы IBM для проектирования и создания информационно-аналитических хранилищ данных, включая индустриальные модели данных, технологии интеграции и очистки данных, технологии управления Большими Данными, решения IBM класса Smart Analytics и Netezza.
 
«Как извлечь практическую пользу из больших данных»
 
В докладе будут рассмотрены сценарии использования больших данных в организациях на основе международного и российского опыта IBM: 
  • использование новых источников и способов обработки клиентской информации 
  • расширение возможностей систем мониторинга инфраструктуры и систем информационной безопасности 
  • использование возможностей технологий потоковой обработки данных 
  • снижение затрат на ИТ при взрывном росте объемов доступных для анализа данных 
Платформа IBM Big Data позволяет эффективно реализовать данные сценарии в различных отраслях, выполнить первый проект в сжатые сроки и затем расширять спектр решаемых задач за счет повторного использования навыков обработки и анализа информации, а также возможностей масштабирования инфраструктуры.

 

Вадим Табаков, менеджер по развитию направления Database&Technology, SAP

«SAP HANA: от операционных вопросов ИТ к реальным преимуществам в бизнесе»

 


Алексей Филановский, старший консультант, Oracle СНГ

«Инструменты для работы с большими данными»

Аналитика и управление большими данными за последние пару лет стали предметом, который активно осваивается специалистами ИТ с помощью предлагаемых на рынке решений. Программно-аппаратный комплекс Big Data Appliance от Oracle это предварительно устанавливаемое и настраиваемое решение корпоративного класса для управления большими объемами данных на крупных предприятиях, разработано на основе стандартизированного оборудования Sun для выполнения Hadoop и Oracle NoSQL Database для обработки сверхбольших объемов данных. Благодаря разработанному Oracle специализированному ПО Oracle Big Data Connectors становится возможным дополнительное увеличение производительности различных операций, а также быстрая интеграция с базой данных Oracle. Интегрированный комплекс Oracle Big Data Appliance представляет собой доступную масштабируемую инфраструктуру для управления сверхбольшими объемами данных без рисков, свойственных "самосборным" решениям. Big Data Appliance тесно интегрируется с другими оптимизированными программно-аппаратными комплексами, такими как Oracle Exadata, Oracle Exalogic, SPARC SuperCluster, и базой данных Oracle. Подобное комплексное решение позволяет обеспечить полный цикл сбора, обработки, хранения и анализа структурированных, полу-структурированных и неструктурированных данных.

 

Алексей Серебряков, менеджер по продажам решений Autonomy, HP EMEA

«Резервное копирование и архивирование больших объемов данных в решениях Autonomy»

 

Ишхан Казинян, заместитель генерального директора, IBS

«От Больших Данных к Большим выгодам»