Докладчики Форума Big Data 2012


Гюнтер Тиль, руководитель направления по развитию бизнеса в регионе EMEA, NetApp

Имеет степень Магистра в области бизнеса и экономики со специализацией в управлении данными.
Свою карьеру Гюнтер начинал в качестве редактора газеты Tiroler Tageszeitung. Затем стал руководителем отдела IT  и разработки программного обеспечения в издательстве Schlüsselverlag J. S. Moser в Иннсбруке, подразделение Axel Springer Group. В 2000 году Гюнтер пришел в компанию NetApp на должность менеджера по маркетингу в Центральной Европе. Затем  отвечал за развитие бизнеса в этом регионе. В 2004 году Гюнтер стал со-учредителем, управляющим директором и CEО компании Smapper. С ноября 2011 года Гюнтер является менеджером по развитию бизнеса NetApp по всему региону EMEA. В его основные задачи входит определение потребностей рынка и направление усилий компании на их удовлетворение. Будучи экспертом в области управления неструктурованными данными в корпоративных инфраструктурах хранения, Гюнтер отвечает за продвижение решений NetApp для Big Data.

Облачная инфраструктура для Больших Данных - инструмент предоставления быстро адаптируемых сервисов

Бизнес-модели, основанные на облачных архитектурах, отличаются от стандартных сервисных предложений своей адаптивностью, позволяют обеспечивать хорошее соотношение цены и качества и формировать гибкие контрактные условия. Облачные инфраструктуры просто обязаны быть высокоэффективными по цене и масштабируемыми, чтобы минимизировать капитальные затраты и дать возможность сервис-провайдеру сформировать конкурентные предложения. NetApp представляет решения для Big Data, позволяющие провайдерам как внутренних, так и внешних облачных услуг использовать мощные инфраструктурные составляющие для создания гибкой платформы, ориентированной на будущий рост бизнеса. Компании могут сами развернуть у себя эти инфраструктуры, подобные тем, что строят крупные сервис-провайдеры, но по более приемлемой цене.

Архивирование Больших Данных с использованием Storage-Grid

Крупным корпорациям и сервис-провайдерам необходимы многопетабайтные архивы, обеспечивающие возможность масштабирования и оптимальное соотношение цена/качество, и в то же время позволяющие пользователям создавать и использовать контент, а также управлять им независимо от своего географического местонахождения. NetApp StorageGrid Content Repository представляет собой быстро разворачиваемую модульную эталонную архитектуру, включающую в себя серверы, сетевое оборудование и системы хранения StorageGrid.

 


Сергей Лихарев, руководитель направления решений по управлению информацией, IBM EE/A

Стратегия и решения IBM в области обработки и анализа Больших Данных 

Сергей Лихарев является руководителем направления IBM Information Management в России и СНГ. В области развития бизнеса и руководства проектами создания информационных систем Сергей специализируется более 17 лет. Окончил Рязанский радиотехнический университет по специальности «Автоматизация информационных процессов». В сферу ответственности Сергея входят решения и платформы IBM для проектирования и создания информационно-аналитических хранилищ данных, включая индустриальные модели данных, технологии интеграции и очистки данных, технологии управления Большими Данными, решения IBM класса Smart Analytics и Netezza.
 
В докладе будут затронуты актуальные вопросы в области обработки и анализа Больших Данных в компаниях. Речь пойдет о практических примерах использования Больших Данных, а также о решениях IBM, которые помогают компаниям превратить Большие Данные в эффективные управленческие решения, обеспечить рост бизнеса и повысить лояльность клиентов.

 

Александр Тимчур, специалист по решениям Netezza/Information Management, IBM

Практическое применение продукта IBM InfoSphere Streams для анализа потоковых данных в реальном времени

Консультант по хранилищам данных, OLAP и ETL. C 2005 г. Александр участвует в проектах по внедрению хранилищ данных и корпоративной отчетности в ведущих банковских, страховых и телекоммуникационных компаниях России и Казахстана в роли архитектора. В настоящее время Александр занимается продвижением  технологий IBM Netezza и BigData в СНГ.

 

Андрей Выходцев, консультант направления Netezza и Big Data, IBM

Практическое применение продукта IBM InfoSphere Streams для анализа потоковых данных в реальном времени

Андрей является сертифицированным специалистом в области сверхкрупных СУБД (например, Teradata, Oracle и Netezza) с 11-летним опытом работы в области бизнес-аналитики, а также в проектах по разработке и внедрению хранилищ данных. Занимал должность ведущего разработчика и архитектора в таких компаниях, как CBOSS, Deutsche Bank, Teradata. Андрей консультирует бизнес-компании по вопросам технологий сложной и потоковой аналитики без использования SQL (программное обеспечение класса IBM InfoSphere Streams и IBM InfoSphere BigInsights).

 

Ник Росситер, региональный директор, Informatica Россия и СНГ

Большие Данные: максимизируйте отдачу от корпоративных данных

Ник Росситер родился 12 апреля 1951 г. в Дублине (Ирландия). В 1972 г. окончил Дублинский Технологический институт. С 1972 по 1976 г. работал в компании Univac (Великобритания) системным инженером. С 1976 по 1978 г. — системный аналитик компании Data General (Великобритания). С 1983 по 1984 г. — менеджер по маркетингу компании Amdahl (Великобритания). В 1984 г. стал управляющим директором представительства HP в России. С 2003 г. работал в Symantec (в то время VERITAS) консультантом по вопросам управления для открытия представительства компании в России и странах СНГ, региональным директором компании Symantec в России и странах СНГ.

Стремясь превратить Большие Данные в большие возможности для бизнеса, компании уделяют особое внимание интеграции данных, чтобы своевременно предоставлять наиболее актуальную и проверенную информацию сотрудникам всех своих подразделений во всех географических зонах. Компании используют интеграцию данных, чтобы получить единое представление о своих клиентах, поставщиках и услугах, по возможности, в режиме реального времени. Наряду с транзакционными данными им приходится работать и с интерактивными данными, поступающими от большого числа мобильных устройств и из социальных сетей. В дополнение к этому в последние годы стремительно набирает популярность бесплатная платформа Hadoop, которая также является источником больших объемов процессинговых данных.

 

 

Сергей Кузнецов, директор, Центр исследования и разработки, Informatica

Большие Данные с точки зрения MDM

Сергей Кузнецов родился в г. Ленинград, с отличием закончил математико-механический факультет СПбГУ, а также имеет степень магистра управления при экономическом факультете СПбГУ, является автором различных научных публикаций в области суб-оптимальных алгоритмов, оптимизации хранилищ данных и криптографии, а также программ адаптации студентов в современных IT компаниях.  C конца 90-х годов принимал активное участие в формировании и привлечении иностранных компаниий в области компьютерной безопасности и наукоемкой разработки ПО (Nokia, Quest Diagnostics,BioDiscovery, AtBusiness Oyj).  В 2003 году возглавил группу разработчиков компании Enkata Inc, специализировавшейся в области аналитики больших объемов данных, откуда в 2007 году перешел в компанию Siperian – лидера рынка MDM, которая была приобретена компанией Informatica Corp в 2010г. С 2010г Сергей Кузнецов возглавляет российское подразделение компании Informatica (NASDAQ: INFA), насчитывающей около 100 сотрудников в офисах Санкт-Петербурга, Москвы и Казани,  ответственный за подразделения разработки MDM, облачных технологий и репликации данных.

В последнее время объем накопленных компаниями данных растет лавинообразно, поэтому проблемы централизации и управления этими данными выходят на первый план. В докладе на основании международного опыта компании Informatica в выполнении проектов для организаций из списка Fortune 100 будут рассмотрены различные аспекты управления Большими Данными, включая консолидацию и дедупликацию, оптимизацию больших объемов, репликацию и поддержание бесперебойного режима работы всей инфраструктуры. Особое внимание будет уделено новому поколению данных, получаемых из открытых источников (социальные сети, мобильные приложения), и сценариям использования этой информации для обогащения внутренних хранилищ данных.

 

Люк Лонерган, соучредитель и СТО, Greenplum, EMC

Как технологии обработки Больших Данных помогут изменить будущее вашего бизнеса

Люк Лонерган совместно со Скоттом Яра в 2003 году основал компанию Greenplum, которая в 2010 году вошла в состав EMC. До создания Greenplum в 2000 году Лонерган основал компанию Didera, которая специализировалась на кластерных СУБД, а прежде чем заняться собственным бизнесом он более 15 лет работал на руководящих должностях в нескольких известных компаниях.

Большими Данными принято называть наборы данных в комбинации с инструментарием и специфичным окружением для их обработки и анализа. Сейчас Большие Данные играют огромную роль в бизнесе. Компания EMC работает в данном направлении с 2010 года и, благодаря технологиям  Greenplum и Isilon, зарекомендовала себя как перспективный и технологически продвинутый поставщик решений для Больших Данных.

 

Евгений Красиков, консультант по технологиям, EMC Isilon

EMC Isilon: идеальное файловое хранилище для Больших Данных

В компании EMC обеспечивает поддержку коллег, заказчиков и партнеров по вопросам внедрения и использования продуктов Isilon. В EMC пришел из компании «Энвижн Груп», где занимал должность технического консультанта. До этого занимался администрированием систем хранения данных и UNIX в ОАО «МТС».

Одна из тенденций, наблюдаемых сегодня практически во всех областях ИТ, – лавинообразный рост объемов обрабатываемых и хранимых данных. Традиционные архитектуры систем хранения перестают справляться с эффективным управлением растущими данными. Большие объемы требуют принципиально нового подхода. Такой подход предлагает EMC Isilon – система, изначально разработанная для работы с Большими Данными.

 

Денис Серов, руководитель направления технического консультирования, Ведущий эксперт по технологиям, EMC

EMC Greenplum: унифицированная платформа для аналитики Больших Данных

Курирует направление Greenplum и аналитики Больших Данных. По образованию – физик-ядерщик (МИФИ), 10 лет в ИТ.

Компания EMC благодаря технологиям Greenplum и Isilon уже зарекомендовала себя как перспективный и технологически продвинутый поставщик решений для Больших Данных. Однако EMC двигается дальше и анонсирует новую аналитическую платформу для Больших Данных, которая включает в себя все технологические преимущества, доступные сейчас на рынке: Hadoop, MapReduce, встроенной математики и интеграции данных из внешних источников.

 

Иван Кожемякин, старший системный консультант, Hitachi Data Systems

Смена парадигмы взаимоотношений заказчика и провайдера сервисов Больших Данных. Пракика T-Systems International и Hitachi Data Systems

В 1998 году окончил Воронежский Военный Институт Радиоэлектроники по специальности "радиоинженер". До 2007 года работал в различных компаниях - системных интеграторах, где занимался подготовкой инфраструктурных ИТ-решений для клиентов. С 2007 г. по настоящее время занимает должность Senior Solution Consultant в компании HDS и осуществляет поддержку продаж на различных стадиях выполнения проектов у ключевых клиентов HDS. В 1998 году окончил Воронежский Военный Институт Радиоэлектроники по специальности "радиоинженер".
До 2007 года работал в различных компаниях - системных интеграторах, где занимался подготовкой инфраструктурных ИТ-решений для клиентов. С 2007 г. по настоящее время занимает должность Senior Solution Consultant в компании HDS и осуществляет поддержку продаж на различных стадиях выполнения проектов у ключевых клиентов HDS.

 

 

Хартмут Вагнер, Вице-президент по управлению информацией, НР ЕМЕА

Обработка неструктурированных данных реального мира

Шушован Хуссейн (Sushovan Hussain) занимал позицию финансового директора компании Autonomy до октября 2011 г., а, после приобретения Autonomy компанией HP стал президентом по продажам Autonomy.  До Autonomy Шушован занимал ряд топ-менеджерских позиций в области финансов в компании LASMO, одной из крупнейших нефтегазовых компаний мира. В частности, на протяжении трех лет он работал в департаменте корпоративного развития, отвечая за слияния и  отделения активов. Шушован получил степень бакалавра экономики в Кэмбриджском университете в Англии, после чего начал свою карьеру как аудитор в лондонском отделении консалтинговой компании  Ernst & Young.

Более не привязанная к структурированным базам данных, информация теперь живет везде - в социальных сетях, изображениях, текстах, голосовых звонках и электронной почте. Несмотря на ажиотаж вокруг Hadoop и баз данных, размещаемых в памяти, обработка неструктурированных данных по-прежнему сопряжена с рядом проблем. Узнайте, как платформа обработки информации, адаптирующаяся к нашему реальному миру, а не подстраивающая модель мира под себя, помогает организациям открыть неограниченные возможности Больших Данных, предоставляя ценные выводы из информации независимо от того, что эта информация из себя представляет и где она находится, - и все это в режиме реального времени!

 

Олег Васьков, руководитель отдела бизнес-критичных систем, HP Россия

Ближайшее будущее Больших Облачных Систем. Проект HP Odyssey

Олег занимает позицию руководителя отдела бизнес-критичных серверных систем (BCS) в департаменте технологических решений. Зона ответственности отдела охватывает системы HP Integrity, операционные системы HP-UX, OpenVMS, NonStop, а также 8+ системы x86. В сферу компетенции Олега входят сравнение серверных архитектур различных производителей, выработка рекомендаций по аппаратной платформе для ресурсоемких ISV, решение вопросов, связанных с построением архитектуры современных центров обработки данных, консолидацией и виртуализацией серверных систем, а также с экономической эффективностью ИТ-проектов (защита инвестиций, ROI, TCO).
В российском представительстве компании HP Олег работает с 2003-года, в ИТ-индустрии с 1999 года. До этого Олег работал в различных международных (Sun Microsystems, CERN) и российских организациях, закончил Московский Инженерно-Физический Институт (Технический Университет) по специальности «Прикладная математика». В 2011 году окончил программу Executive-MBA в Antwerp Management School.

Компания НР анонсировала запуск проекта Odyssey (Одиссей), нацеленного на изменение будущего критически важных вычислений. Этот проект призван привнести , в мир x86 надежность, доступность, масштабируемость, производительность, сервисы и поддержку, традиционно ассоциирующиеся с миром Unix-систем. Odyssey создаст для заказчиков унифицированную серверную платформу, сочетающую в себе все лучшее из мира Unix c богатейшим выбором приложений x86.

 

Кирилл Вахрамеев, специалист по продвижению серверных решений для критически важных приложений, HP Россия

Кирилл Вахрамеев, к.ф-м.н., OpenVMS Ambassador, уже свыше 18 лет участвует во внедрении ОС OpenVMS в России и свыше 15 лет занимается построением топовых корпоративных решений для "тяжелых" задач в области IT.

Аппаратные решения для обработки Больших Данных в большой памяти. HP VMA

Задачи с интенсивной обработкой больших объемов данных, в том числе бизнес-аналитика, крупномасштабная консолидация и виртуализация вычислительных ресурсов, оказываются непростым делом, в особенности при необходимости использования существующих приложений, не приспособленных к обработке Больших Данных. HP предлагает универсальное решение для очень быстрой обработки Больших Данных в Большой Памяти, практически не зависящее от используемых СУБД и набора необходимых Заказчику приложений. На семинаре будут рассмотрены общие подходы к построению такого решения, способы обеспечения надежности и масштабируемости, типовые конфигурации и области применения.

Распределенная СУБД для анализа Больших Данных в реальном времени. HP Vertica

Специализированные системы часто на пару порядков эффективнее универсальных. Например, СУБД Vertica, специально созданная для решения "тяжелых" аналитических задач, позволяет обрабатывать поступающие данные практически в режиме реального времени и масштабируется в очень широких пределах. В презентации будет рассказано о том, какими характеристиками должна обладать высокоэфективная аналитическая система и почему, как эти характеристики достигаются в Vertica и для каких целей она применяется.

 

Максим Исаев, менеджер по развитию бизнеса, IBS

Как не заблудиться в Больших Данных?

Максим Исаев - менеджер по развитию бизнеса направления Специализированных Программно-аппаратных комплексов (СПАК) в отделе системных решений компании IBS. В области BI и аналитических систем работает более 7 лет.  Начинал с развития бизнеса и построения дистрибьюторского канала продуктов Crystal Reports, работал с аналитическими платформами Business Objects,  Sybase. Окончил МФТИ по специальности «Инженер физик». Отдел СПАК в IBS отвечает за развитие компетенции и поддержку бизнеса компании в части передовых технологий по работе с данными  таких компаний  как Oracle, Teradata, IBM, SAP, HP, EMC.

Сегодня компании, задумывающиеся об использовании решений для работы с Большими Данными, сталкиваются с рядом трудностей. Многообразие новейших технологий, предлагаемых  на рынке, а также уникальные особенности бизнес-процессов заметно осложняют обработку Больших Данных. И здесь роль системного интегратора, его экспертиза, опыт и способность объективно взглянуть на проблематику с разных сторон становится решающей. В компании IBS создан тестовый центр  - единый комплекс программных и аппаратных средств (Oracle Exadata, IBM Netezza), специально подобранных и оптимальным образом настроенных для решения определённого класса задач, связанных с Большими данными. Этот комплекс позволяет существенно снизить риски и принять оптимальное решение  в процессе выбора систем данного класса.

 

Сергей Мацоцкий, вице-президент IBS Group, Председатель правления, IBS

«Большие данные»: пора подготовить корпоративные ИТ к новым скоростям

Современные тренды в ИТ (такие как централизация вычислительных ресурсов, распространение мобильных вычислений, широкая доступность сверхпроизводительных серверов) меняют наше отношение к анализу деловых данных. Меняется не только объем, но и качество, доступность, форматы информации. Как это отражается на повседневной практике работы ИТ-службы? Нужно ли уже сейчас искать в корпоративном ЦОД место новым технологическим решениям для анализа больших объемов данных? Насколько затраты на эти решения оправдают себя? Кроме того, в эпоху Больших Данных меняются роль и структура корпоративных ИТ-служб, которые от решения технических задач должны перейти к решению вопросов о том, как поставить цифровые активы компании на службу бизнесу.

 

Андрей Пивоваров, менеджер по технологическому консалтингу, Oracle России и СНГ

Стратегия Oracle в области обработки Больших Данных

Андрей Пивоваров - руководитель направления перспективных продуктов Oracle CIS. До прихода в Oracle долгое время работал в различных компаниях на проектах по хранилищам данным и аналитическим системам на должностях консультанта и руководителя проектов.
С 2003 года работает в Oracle CIS сначала в должности консультанта по хранилищам данным и аналитическим системам, а с 2007 руководит группами консультантов по различным технологическим направлениям.

В октябре 2011 года компания Oracle анонсировала новое специализированное аппаратно-программное решение для работы с Большими Данными - Oracle Big Data Appliance.
Из чего состоит это решение? Какие преимущества оно дает? Какие дополнительные возможности появляются у заказчиков, уже располагающих хранилищами данных на платформе Oracle? Как Oracle Big Data Appliance взаимодействует с другими компонентами технологического стека Oracle? В докладе будут даны ответы на эти и другие вопросы.
 

 

Ольга Горчинская, главный консультант по продажам, Oracle Восточная Европа и СНГ

Oracle для анализа Больших Данных

Большие данные - одно из ключевых направлений развития технологий и решений Oracle. В области анализа таких данных компания предлагает не только инновационные решения, нацеленные на достижение экстремальной производительности традиционных BI-инструментов, но и специализированные средства исследования неструктурированной и слабо структурированной информации. В докладе рассматриваются новые решения Oracle для аналитики Больших данных, включая систему статистических исследований R Enterprise, которая объединяет концепцию аналитики, встроенной в базу данных, с языком программирования R для статистических исследований и визуализации, и программно-аппаратный комплекс Oracle Exalytics, поддерживающий экстремальную производительность аналитических инструментов. Особое внимание уделяется платформе совместного исследования структурированных и неструктурированных данных – Endeca Information Discovery,  предоставляющей расширенные возможности поиска информации по нечетким критериям, анализа данных из многочисленным источников при отсутствии четких моделей и взаимосвязей, анализ текстовой информации. Кроме описания собственно технологий приводятся примеры их промышленного внедрения на различных предприятиях и в разных индустриях.

 

Дмитрий Лисогор, заместитель генерального директора, руководитель Департамента по бизнес-аналитике и технологиям, SAP СНГ

Родился в 1977 году. Закончил Московский Энергетический Институт (Технический университет) по специальности «Вычислительные машины, системы и сети». В сфере информационных технологий работает с 1997 года. В компанию SAP пришел в 2003 году и за прошедшее время отвечал за различные направления: работа со средними и малыми предприятиями, развитие канала продаж. С 2009 года вошел в состав управляющей команды SAP в странах СНГ и возглавил департамент бизнес-решений. В этой роли отвечает за продвижение решений в области бизнес-аналитики, управления эффективностью, управления рисками, а также за рынок мобильных приложений. В настоящее время данные бизнес-решения занимают около 30% в общем объеме бизнеса компании в СНГ.

 

Светлана Архипкина, руководитель команды архитекторов бизнес-решений по направлению бизнес-аналитики, SAP

 

Андрей Хромов, ведущий технический консультант, Sybase CIS

Технологии Sybase для обработки Больших Данных

Андрей Хромов работает в Sybase CIS более 10 лет, занимая в разные годы различные позиции в техническом департаменте компании - от инженера технической поддержки до пресейл консультанта и руководителя технической группы. В настоящее Андрей является ведущим консультантом Sybase CIS и его основная деятельность связана с продвижением технологий Business Intelligence, серверов баз данных, систем интеграции и средств моделирования. За время своей работы в Sybase CIS он принимал участие во многих BI-проектах, связанных с макетированием, тестированием и оптимизацией хранилищ данных на платформе Sybase.

Компания Sybase, основываясь на многолетнем опыте внедрения технологий для работы с растущими объемами данных, представит свое видение того, какие существуют проблемы в области Больших Данных, где и когда имеет смысл применять технологии их обработки, а также примеры Больших Данных из реальной жизни – описания реальных проектов. Кроме того, в докладе будет рассмотрена предлагаемая Sybase инфраструктура для управления Большими Данными, которая включает в себя новую аналитическую платформу для Больших Данных Sybase IQ 15.4 и технологию Sybase ESP 5.0, позволяющую проводить анализ Больших Данных "на лету".

 

Сергей Кузнецов, доктор технических наук, профессор кафедры системного программирования ВМК МГУ, главный научный сотрудник Института системного программирования РАН

Big Data и горизонтально масштабируемая аналитика

Сергей Кузнецов – один из ведущих российских экспертов в области баз данных и ОС UNIX, представитель IEEE Computer Society в Москве. Является заместителем председателя Московской секции ACM SIGMOD, членом ACM, членом программных комитетов международных конференций DEXA, SOFSEM, ADBIS, ISD, BulticDB, SYRCoDIS. Основные результаты научной деятельности: операционная система ЦП АС-6, кластерная операционная система (КЛОС), GNU SQL-сервер, система виртуальной интеграции данных BizQuery, система управления базами XML-данных Sedna. Автор свыше 100 научных работ и двух учебников.

Большие данные приносят реальную пользу только в тех случаях, когда имеется возможность извлекать из них новые знания. Признанным средством извлечения знаний из данных является аналитика. При обработке данных большого объема, управление которыми поддерживается параллельными системами,  аналитические приложения должны располагаться как можно ближе к данным и при этом являться параллельными. Проблема состоит в наличии удобной модели параллельного программирования серверных аналитических приложений, поддерживающей их горизонтальное масштабирование.

 

Андрей Выходцев, специалист по решениям Netezza, IBM

Платформа IBM Big Data для анализа больших обьемов данных

1. Платформа IBM Big Data.
2. Обзор продуктов в составе платформы:
- IBM InfoSphere Streams для анализа потоков данных в реальном времени
- IBM BigInsights для анализа больших обьемов неструктурированных данных
- IBM Netezza для анализа реляционных данных
3. Типовые варианты использования продуктов.

Практика обработки больших объемов данных

Участникам воркшопа будет предложена демонстрация продукта IBM InfoSphere Streams для потоковой обработки  данных.

 

Вадим Русин, региональный управляющий Россия, СНГ и развивающиеся рынки, Splunk

Преимущества использования Splunk для анализа больших данных

Об использовании Splunk для повышения доходности предприятия на конкретных примерах внедрения для хранения, обработки, администрирования Больших Данных (Big Data)  в ряде областей бизнеса и информационных технологий.