Jump to content 日本-日本語

製品  >  ソフトウェア  >  Linux

南関東最速!
どこよりも遅く、限りなく個人的な
Red Hat Summitセッションレポート'15 Boston

Open Source & Linux

導入事例

product

ハードウェア
ソフトウェア
サービス & サポート

buy now?

HPE OPEN SERVICES
保守サービス
教育プログラム

support

OS対応表
システム構成図
技術文書
FAQ
ディストリ対応表
サポート & ドライバ
リンク
SDR - 設定方法
FreeBSD
サイトマップ
HPE & Red Hat情報ポータル HPEとRed Hatが実現するオープンなイノベーション
BSD 動作確認レポート等を掲載
コンテンツに進む
29-SEP-2015
rhs_logo  国外出張するたびに時差に悩まされます。スマホなら世界時計とかのアプリを入れておけばいいのですが、腕時計はそうはいきません。腕時計って昔から大きな進歩がない感じですけど、腕時計もスマホと連携できれば凄い便利だと思います。そう、スマートなウォッチです。もしそんなスマートなウォッチが発売されたら、ガジェット好きが集まっているに違いないコンピュータ関連のショーの参加者みな買って腕に嵌めると思います。ここ Bostonでは誰もそんなもの腕に全く嵌めていない今がチャンスではないでしょうか!
1-entrance  6月 23〜26に掛けて米国ボストンで開催された Red Hat Summit 2015に参加してきましたので、今更ながら遅報させて頂きます。

 最初にお断りしておきますが、Red Hat Summitでは同時に複数のセッションやトレーニングセッションが開催される形式です。セッションを大きく分類すると、Red Hat Enterprise Linux/Atomic/Virtualization, Red Hat Gluster/Ceph Storage Server, OpenStack, Jbossとその他の開発やビジネス系に分かれております。そのセッション数は約 200本。筆者の仕事柄 Red Hat Enterprise Linux/Atomic/Virtualization, Red Hat Gluster/Ceph Storageを中心にセッションの受講を行いましたので、OpenStack関連はかなり少なめで、JBossについての情報は全くありませんので、よしなに。
2-entrance3-entrance  会場はボストンの中心に位置する Back Bayエリアのプルデンシャルセンターの Hynes Convention Centerです。参加者は 5,000人と発表されました。今回の Red Hat Summitのテーマは「 Energize your enterprise 」となっていました。
DSCN0078_s DSCN0082_s DSCN0184_s DSCN0276_s DSCN0278_s

キーノート

1-keynote2-keynote 初日のメインとなる Red Hat社 CEOの Jim Whitehurst氏のキーノートでは、Red Hatは IT業界の CATALYST(触媒、刺激を与えるもの)であり、革新を起こすのはユーザであるとの事。ビジネスが資産を中心としたものから情報を元にして新たに作成される付加価値に変化している事(Uber, Facebook Alibabaを例に挙げ)。今後の革新で必要なものとして de-centralized(非中央集権)、オープンなコラボレーション、モジュラー形式との事でした。企業内プロセスだけをアジャイル化するのではなく、企業自体をアジャイル化するために企業内の思考、そして企業文化を変える必要があり、Red Hat社はそれを支援していく立場にあるとの事でした。
3-keynote4-keynote Red Hat社では他に Paul Cormier氏と Craig Muzilla氏がキーノートを行いました。Linuxはデータセンター分野においては既に勝利しメインとなっている(Linux has won)。DevOpsを実現するための製品と開発テクノロジーの共通するスレッドはオープンソースをベースとしている。DevOpsを加速するためのものとして Linuxではコンテナー技術が注目されており、それをエンタープライズとして利用するための基盤が Red Hat Atomic Enterprise Platformを中心としたものとなり、今後の Red Hat社の中心製品となっていく。殆どの企業はオープンソースを基礎とした最新のテクノロジーを導入しても新しい企業価値を創造する事ができていないが、ITを生業にしている企業以外でも新しい企業価値の創造が成功している事例として、乗り合いタクシーの配車サービスである UBER社、映像配信サービスの Netflix社をあげていました。全体的に昨年の Red Hat社のキーノートが新製品と技術セントリックな内容であったのに対して、今年はソリューションセントリックな見せ方となっていた印象を受けました。
5-keynote Cisco社はハーレーダビッドソン社の事例としてデモを行おうとしたみたいですが、何か問題があった模様で登壇者が途中で演壇を突然去ってしまいました。私も突然何が起こったのかよく分かっていなかったのですが、会場がちょっとどよめいたので何等かのハプニングらしいと云う事だけは分かりました。
 IBM社は OpenPOWER Foundationを立ち上げ、既に 140社が参加している事をメインにあげていました。これは Googleが参加していて自社利用に適したものにするため積極的に参加しているものかと思われます。同社のオープンソースへの貢献として既存の Linux, OpenStack, Dockerだけでなく Apache Sparkも挙げていたがの印象に残りました。昨年までは PREMIERスポンサーだった IBMは今年は PLATINUMスポンサーになっていました。xSeriesを Lenovoに売却したのが影響しているのでしょうか。
 SAP社は Peavey社が不満を持っていたデータベースの性能を改善するために、同社のインメモリデータベース HANAを Red Hat Enterprise Linux上に導入し置き換えた事例をあげていました。構築支援は NECが行ったとの事です。
 他に Dell社、Intel社のキーノートもありました(共にソリューションメインな感じで個人的な興味が今一つでした)。HPはセッションステータスは去年と同じままなのですが、キーノートはありませんでした。理由は分かりませんが偉い人の都合がつかなかったのでしょうかね。
6-keynote  今回の Red Hat Summitに合わせて発表された新製品は下記です。この中で全くの初耳なのは Red Hat Atomic Enterprise Platformです。`Atomic... Platform`と云う事で、プロジェクト Atomicをベースにした製品 `群`の事かと勝手に理解していたのですが、帰国してからこれが製品名だった事を知りました。簡単に云うと DevOpsを司る管理製品となる OpenShift Enterprise 3から Ops部分のみを抜き出した製品となります。ハードウェア販売を中心とした生業な私としてはかなり嬉しい(皆が皆 DevOps側の Dev側を必要としない事が少なくないのは事実ですので)製品です。 7-keynote
8-keynote
           - OpenShift Enterprise 3
- Red Hat Atomic Enterprise Platform
- Red Hat Learning Subscription
- Red Hat Mobile App Platform
- Red Hat Cloud Infrastructure 6
- Red Hat JBoss Fuse 6.2 and Red Hat JBoss A-MQ 6.2
- Red Hat Ceph 1.3 and Red Hat Gluster 3.1
- Red Hat Satellite 6.1

セッション

 Red Hat Summitの主目的であるセッションの多くは、現在サイト外リンクRed Hat Summit 2015サイトにて PDF形式で提供されています。本章は実際にセッションに参加、もしくは後日ドキュメントを読んでみての概略等をまとめたものです。大人の事情により PDFへの直リンは行いませんので、興味を持たれたセッションスライドはページ内検索で探してください(お手数お掛け致します)。
DOCKER RECIPES FOR JAVA DEVELOPERS
11381_docker_developers-1 11381_docker_developers-2  本セッションは、Java Developer向けの話と云うよりは、Dockerとは何?から始まる Dockerを知ろう的なものです。但し、他のセッションと異なるのは Kubernetesでの管理の話だけではなく、Docker Inc.が提供する仕組みについての話がありました。`Machine`. これは、Dockerのホスト環境をローカル・クラウド上に配備する仕組みです。`Compose`. これは、マルチノード上に Dockerコンテナを起動させる仕組みで Machine, Swarmと連携します。`Swarm`. Docker向けのクラスタ環境で、複数ノード上でも単一ノードと同じ様に扱うためのものです。Docker Remote APIと互換性のある Docker Swarm APIが提供されます。この互換性が用意されているのは魅力的で、Dokku, Figと云った従来は単一ノード上で利用していたツールがマルチノード上で利用可能になるのかと思われます。また、Swarmは Dockerコンテナとして稼働させますので、イメージを pullするだけで利用が可能なのも今風で楽ちんそうです。
SPLUNK ON RHGS FOR THE WIN
11578_splunk_win-1 11578_splunk_win-2  本セッションは、Red Hat Gluster Storageの事例紹介です。big data向けソフトウェアの一つで、前述の keynotesのデモでも利用されていたログ解析ソフトウェアである Splunkをカナダのサスカチュワン州のキャリアである SaskTel社が Red Hat Gluster Storageと組み合わせています。同社によると大量のシステムから吐き出されるログの解析に時間が掛かり過ぎて、ビジネス的なロスを被っていたとの事です。本システムの構築で判明した事の一つとして、ヘビーユーザーは roamingを頻繁に行う事が分かり。ネットワークの利用状況の詳細な解析により、同社は他社との roaming提携を行う際に有利な交渉を行うためのデータとして利用出来たとの事です。同社では当初、ストレージ基盤にはローカルストレージや EMCを利用していたがコストに見合わなくなってきて、OrangeFS, PvFS等も検討したが最終的に Glusterになったとの事ですが、サポート面での不安から Red Hat Gluster Storage(当時の製品名は Red Hat Storage Server)を選択しています。あと `syslogサーバには名前を付けるな`と云う話が面白かったです。
OPENSHIFT FOR OPERATORS
11626_openshift-for-operators_1  本セッションは、OpenShiftが v2から v3になりどう変化したかについての紹介です。本製品は Red Hatの中では DevOpsの中核となる管理ソフトウェアとなります。今回の v3は従来の v2とは全くの別モノです。従来の Gearsベースの開発プラットフォームを Dockerベースに変更、管理ツールが Brokerベースから Kubernetesベースに変更されています。本セッションの後半はデモとなりましたが別セッションへ移動したため、残念ながら拝見しておりません。 11626_openshift-for-operators_2
11626_openshift-for-operators_3
TUNING RED HAT ENTERPRISE LINUX FOR DATABASES
11952_cloudforms_virtualization-1
11952_cloudforms_virtualization-2
11952_cloudforms_virtualization-3
 本セッション名には Databaseが冠されていますが、DBに無関係な Linuxerにも興味深い話が多数ありました。Red Hat Enterprise Linux 7で tunedを利用する際の肝となるものが挙げられています。また、dm-cacheの効果がグラフで説明されましたが、この際に利用されたストレージは HP StorageWorks EVAでした。昔に比べると numadが賢くなったからか何も配慮せずともかなりイケてると思いますが、それでも pinningした方が有利な場面があります。また、hyperthreadも場合によっては有利にならない場面もあるとの事で、KVMでの 64 vCPUを 1VMで利用する場合には性能の低下するとの事です。後半は DBを Red Hat Virtualization(RHEV)上で稼働させた場合の話でしたが、仮想化が当たり前になった今でさえ、DBを KVM上にもってくる際のチューニングは難しいので、ためになる話だと思います。
OPENSHIFT @Amadeus
12206_amadeus_openshift-1 12206_amadeus_openshift-2  本セッションは、旅行代理店である Amadeus社における OpenShiftの事例です。同社の事業としては多数の端末が世界中にあり、一日あたり 100TBを超える圧縮データが発生し、それらは x86_64な Linuxサーバで稼働しているとの事。航空会社・ホテル・他の旅行代理店等との連携もあるためダウンが許されないだけでなく、レスポンスタイムの低下も許されないシステムとなっており、N+x形式でのクラスタリングでは即時対応が行えない。このためアプリケーション・セントリックな配備を行うために、全てのアプリケーションが全てのサーバで稼働できる様にする `decouple`化を行い、システムの管理を楽にするのを目標とし、実現するためのテクノロジーとして OpenShift v3による Docker + Kubernetes環境を採用したとの事です。時期的な話からすると、Red Hat社とのパートナーシップに基づき、OpenShift v3のβユーザとして先行テスト段階から参加されていたと思われます。
USING OPENSHIFT & PAAS TO ACCELERATE DEVOPS & CONTINUOUS DELIVERY
12218_uopad_continuous_delivery-1  本セッションは、OpenShiftを利用しての DevOpsの効率化についてのものです。DevOpsを企業に導入するにはある種の philosophy(哲学)がなければ上手くいかないとの事。考え方が異なる Dev側(速度重視)、Ops(品質重視)を両立させるために必要となるとの事です。両立させる方法は企業風土によってまちまちでしょうが、おおよそ必要となるものが提示されています。従来 codeは Dev側だけのものでしたが、Ops側が司るインフラ周りでも `Infrastructure As A Code`として手順書ではなく script化等により自動で行う事が必要となり、結果としては codeがキーになるとの事でした。 12218_uopad_continuous_delivery-2
12218_uopad_continuous_delivery-3
RED HAT GLUSTER STORAGE: DIRECTION, ROADMAP AND USE-CASES
12326_rhg_use_cases-1  本セッションは、Red Hat社のストレージシステムについての概要的なセッションです。以前、Red Hat Storage Server(RHSS)と云う製品名でリリースされていたものは Glusterベースのものでしたが、Red Hat社が Cephビジネスを展開している Inktank社を買収してから Red Hat Storageは Glusterと Cephの 2系統となり、従来の製品名は Red Hat Gluster Storageとなりました。乱暴に云うと、Glusterはファイルシステムとしての通常利用がメインなビッグデータ向け、Cephは OpenStackとの連携が得意なオブジェクトストレージと云えるかと思います。本セッションでは Gluster側についての話です。現在のバージョンは v3.1で、GlusterFS 3.7をベースにしています。キーとなるのは Erasure Coding、Tiering、Bit-Rot detection、Active-Activeな NFS、Snapshot schedulingでしょうか。Erasure Coding(消失訂正符号)は従来の RAID-5の進化形みたいなものです。従来の方式では XORでのパリティ計算による論理ディスクの再構築に時間とリソースを割く必要があり、利用可能な領域も減ります。特に diskの本数や容量が大きくなってきている昨今はこれらの負担は無視できないぐらい増大しています。Erasure Codingは REED-Solomonアルゴリズムを利用し、分散 fragmentsからデータの再構築とデータ破損チェックを行い、かつディスク領域の効率化が図られます。とは云え、単純な XORよりも計算リソースを大きく消費しますが、機能・効率で考えると次世代の RAIDとしては Software-defined Storage分野での本命なのかと思われます。Tieringはよく利用するデータを Hot Tierとして SSDに、あまり使わないデータを Cold Tierとして HDDや Amazon EC2上に置く等します。Hot Tierと Cold Tierの入れ替えは自動で行われます。Bit-Rot detectionはデータ化けを検知するための仕組みで ZFS等でよく知られているかと思います。Erasure Codingでもこのデータ化けは検出できるのではないかと思いますが、別途 SHA256によるチェックをするのは別レイヤーでのチェックを backgroundで行うために別途実装しているのでしょうかね(説明が無かった気がします)。GlusterFSのボリュームは Linuxの FUSE(filesystem in userspace)を利用する他に NFS clientからのマウントも可能です。但し、GlusterFSに同梱されている NFS clientは v3迄しか対応していません。この際に NFS-Ganeshaと云うユーザランドベースの NFS clientを利用する事で、NFS v4と Active-Activeな NFS機能が利用可能(Pacemaker & Corosync構成が必要)となり、今回、この NFS-Ganeshaとの連携がサポートされています。組込みされた既存の NFSは当面利用可能だとは思いますが将来的には無くなるのかもしれません。
 GlusterFS、つまりコミュニティ側での動きとして、4.0の説明がありました。今後の 5年は 4.0をベースに開発を行っていくとの事。NVMeの普及を見据えたヘテロなストレージシステムになる事。rack-awareな tiering(Hadoopの HDFSみたいに)。オペレーションの仮想化を進め、brickの直接指定等を考慮する必要がなくユーザ側の視点で欲しい容量を欲しい時に簡単に提供できる方向として、File As A Serivce & NAS on Demandを実現するために、各種の自動化やセルフヒーリングの強化、マルチテナントのためのセキュリティ向上があげられました。
 Red Hat Gluster Storageのロードマップとしては、v3.2が 2016年の前半にリリースされる予定で、GlusteFS 3.8ベースとなり、inode quota(容量ではなく inode自体の割当て制限)性能面の向上として rebalance, self-heal機能の向上があげあれています。Red Hat Gluster Storage v4.0も計画中で時期は現時点では未定との事です。GlusterFS 4.0ベースとなり、compression(圧縮)と de-duplication(重複排除)が予定されているとの事ですのでかなり期待大です。クライアントサイドキャッシュも予定されており、これはサーバ側がクライアント側が保持しているキャッシュ内容を把握する形態のものです。また、pNFSのサポートの明記もありましたがサーバベースのものであるなら、pNFSサーバをサポートする初の Red Hat製品となるのかと思われます。本セッション内でも説明がありましたが、Red Hat Gluster Storageは upstreamの GlusterFSの機能をそのまま取り込む訳ではなく、品質的に見合わないものは採用しないし、いいものは back-portして先取りする事もあるので、必ずしも今後の製品への実装は確定ではないとの事ですので注意しろとの事でした。GlusterFS v4.0で一番期待している sharding-xlatorと云うファイルを分散してノードに跨らせる機能についての説明はありませんでした。
12326_rhg_use_cases-2 12326_rhg_use_cases-3 3a_session/12326_rhg_use_cases-4 12326_rhg_use_cases-5
12326_rhg_use_cases-6 12326_rhg_use_cases-7 12326_rhg_use_cases-8 12326_rhg_use_cases-9 12326_rhg_use_cases-a
CONTAINERS & CONFIG MGMT. (DOCKER & PUPPET & ...)
keynote_2ckeynote_2d  本セッションは、puppet, docker, kubernetes, atomic, vagrantを利用した管理についてのセッションです。未参加のためスライドから読み取れたのは前述の説明だけで、デモが大半を占めたのではないかと予想しております。
DEMYSTIFYING SYSTEMD
12720_demystifying-systemd_1  本セッションは、systemdのおさらいと今後の進展をまとめた概要セッションです。全く同じ名称のセッションが去年もありましたが、昨年は systemd 101をベースとしていました。今回は、Red Hat Enterprise Linux 7.2で採用予定の systemd 219をベースにしています。今回、systemd-nspawnが紹介されました。これは Dockerを再開発とも云うか forkしたと云うか難しいのですが... CoreOSコミュニティが開発している Docker互換と云うか alternativeとでも云う Rocketが採用しているものです。Dockerよりもシンプルで同じ事が出来(る予定)、コンテナ内で systemctlが利用できるのでとっつきやすいかもしれません。Project Atomicの成果物である Cockpitが Fedoraだけでなく、Red Hat Enterprise Linux 7の Extrasレポで提供されているから使ってみてよ!との事でした。この Cockpitはサービスの制御だけではなく、journaldや container等の監視も可能で各種のステータスのグラフ化も可能ですので、簡単な監視と管理には便利なのかと思われます。但し採取したデータをローカルに保持して過去のステータスも含めて時系列的にグラフを表示させる事はできないみたいです。私の脳裏には Webminと HDE Controller、Cobalt iQがよぎりました。
12720_demystifying-systemd_2 12720_demystifying-systemd_3 12720_demystifying-systemd_4
OPEN HYPERCONVERGED INFRASTRUCTURE
12749_rhe_infrastructure-1  本セッションは、仮想化集約時のストレージに Red Hat Gluster Storageを利用した際のパフォーマンスについてのものです。他の Glusterセッションとかぶっている内容も多いですが、dm-cacheに SSDを利用した際の有用性、仮想ディスクへ SSL経由でアクセスする際に qemu側で SSLを掛けるよりも glusterfsd側で掛けた方が CPU負荷が低い等が示されていました。また、Red Hat Gluster Serverの dashboard画面が示され、今後の Red Hat製品の Web I/Fはこのスタイルになると説明がありました。
12749_rhe_infrastructure-2 12749_rhe_infrastructure-3 12749_rhe_infrastructure-4
RHEV HYPERVISOR 7: NOW AND THE FUTURE
12752_rhe_future-1  本セッションは、KVMを中心とした仮想化のロードマップです。Red Hat Enterprise Linux(RHEL) 7.2, 7.3で利用される予定の QEMUが示されました。RHEL7.2では QEMU 2.1.2、RHEL7.3では 3.0が予定されています。Red Hat Enterprise Virtualization(RHEV) Hypervisor 7での NFVロードマップとして、Intel DPDK(data plane developer kit)サポートが示されました(正確には既に Intelから離れています)。この DPDKと云うのはネットワークをワイヤードレベルにまで高速化するためのものです。Linuxではネットワークパケットは kernel内を通り抜けますが、kernelはネットワーク処理をするために特化したものではないため kernelの外、つまり userland側で処理を行ってしまう仕組みを用意しています。kernelを通さないので一般のコマンドやアプリケーションでは利用できませんので、DPDKを意識したアプリケーションでのみ利用する事となります。この DPDKにうってつけなのが仮想化周りであり、Open vSwitchと vhost-userが RHEL7.2ベースの Red Hat Enterprise Linux OpenStack(RHEL OSP) 8で実装予定と示されています。また、real-time KVMと云う低レイテンシを目指した kernelも RHEL OSP8で実装予定との事です。また、PCI-Expressの Active Error Reporting(AER)、UEFI SecureBootが RHEL7.3ベースの RHEVの将来バージョンで実装予定との事です。また、KVMの二重化を行う nested KVMも RHEVと RHEL OSPの将来バージョンにリストされていました。これらの機能が、RHELでサポートされるのかについては特に明示は行われませんでした。
12752_rhe_future-2 12752_rhe_future-3 12752_rhe_future-4
OPEN SOURCE AND NETWORK FUNCTION VIRTUALIZATION
12780_osnf_virtualization-1
12780_osnf_virtualization-2
12780_osnf_virtualization-3
 本セッションは、通信事業者業界での NFVに関するものです。キーとなるのは Open Daylight、Open vSwitch、DPDKと思われます。Open Daylightは様々なネットワークプロトコルを取り扱うために Service Abstraction Layer(SAL)と呼ばれるレイヤを介して相互互換性を高めるための抽象化システムです。これを実現するための Open vSwitchとその下層で動く DPDKと云う形のシステムを OpenStackで利用していこうと云うのが通信業界の流れです。最後の方のスライドには日本のキャリアの名前もあがっていましたので、今後は OpenStackを中心に VNF As A Serviceが実現されるみたいです。業界でのサポートとして知っているキャリアの名前が多く出ていましたので、キャリア系のシステムはこれらのフレームワークを中心に採用されていく流れで決まりなのでしょうかね。
RED HAT ENTERPRISE LINUX ROADMAP
12924_rhe_roadmap-1  本セッションは、Red Hat Enterprise Linux(RHEL)のロードマップに関するものです。RHELに新しく加わった製品群として、Red Hat Enterprise Linux Atomic Hostの説明を初めとして、RHEL for Real Timeと云う、以前 Red Hat MRG(Messaging, Realtime, Grid)として単独提供されていた Realtime部分を RHELの add-onサブスクリプションとする形態に変更されたもの。SAP社のインメモリデータベース向けとして RHEL for SAP HANAが。 x86から IBM POWERへのアプリケーションの移植性をあげるための RHEL for IBM Power8 Little Endian. RHEL Hight Availability Support for IBM z Systems. RHEL for ARM Development Preview 7.1. の説明がありました。正直なところ、for ARMはなかなか時間が掛かりますね。SUSE Linux Enterrpise Server 12で ARMをサポートと云う発表がありましたが、Evaluationのダウンロードにはリストされないので、まだ SUSE側も Technology Previewとしてのサポートから脱していないのでしょうかね。
 PREDICTABLE ERRATA DELIVERYと云う仕組みが明示されました。緊急性を要するセキュリティやバグ問題を除いた errataリリースを、予期できる単位でリリースしていくと云うものです。これは Red Hat Enterprise Linux 6.7と 7.1以降で実施されるもので、従来は kernelと userspace側のツール等は別個のスケジュールでバラバラにリリースされていたものを 6週間毎を目安にまとめてリリースしていくというものです。
 システムダウンを行わずに kernelのアップデートを行う live patchシステムである Kpatchの説明は残念ながら殆ど本セッションでは示されず、 Kpatchのβグループに登録するべきとの情報迄しか得られませんでした。
 RHEL7.2では全体的な性能向上が行われる予定で、特にネットワークが 35%の向上が見込まれる模様です。また、plotnetcfgがサポートされシステム全体のネットワークトポロジの可視化が容易になる模様です。VLAN, bridge, vEth等に対応しており、OpenStackと Container対応との事で、RHELの Extrasチャネルで提供される Cockpitに統合されています。あと Fedoraでは既に実装されている Waylandが Technology Previewとして利用可能になる事がサラっと記載されているのはちょっと驚きました(RHEL8からと思っていたので)。OverlayFSが Ext4だけでなく XFSに対してもサポート予定がある事が示されています。あと kexec/kdumpが Atomic環境に実装されるとの事ですが、現状の RHEL7.1ベースのものは kdumpが取れないって事なんでしょうね。
12924_rhe_roadmap-2 12924_rhe_roadmap-3 12924_rhe_roadmap-4
RED HAT CONTAINERS ROADMAP PORTFOLIO PERSPECTIVE
13050_rhc_roadmap-1  本セッションは、コンテナーのロードマップです。ロードマップと云うよりは製品体系説明です。実は本セッションは受講しなかったのですが、後から聞いて内容を確認したところ驚き(私だけかも)の内容がサラっと記載されていました。本 Red Hat Summitで一番の驚きであり、一番嬉しい内容かもしれません(私の関わる仕事的に)。コンテナー、つまり Dockerの大規模環境を管理するためには Kubernetesが必要になりますが、Red Hat社の製品体系としては OpenShift v3に同梱されると昨年の Red Hat Summitで発表されました。OpenShiftは DevOpsを実現するための統合管理製品ですが、皆が皆 DevOpsを必要としている訳ではなくあくまで Ops側の観点だけしか見ていないユーザもいる訳です(私です)。その様なユーザに朗報なのが Dev部分を省いた Red Hat Atomic Enterprise Platformの記載があった事です。いつリリースされるのか等の記載はないのでこれから詳細がつめられていくのかと思われます。
13050_rhc_roadmap-2 13050_rhc_roadmap-3 13050_rhc_roadmap-4
DSCN0248 DSCN0268 DSCN0269
INTRODUCING RED HAT MOBILE APPLICATION PLATFORM
13390_introduction_rhm_platform-1  本セッションは、今回の Red Hat Summitのキーノートでも大きく取り上げられた Red Hat Mobile Application Platformと OpenShiftの関係性を示しています。Red Hat社製品の元になっている upstream側のプロジェクトがまとめられたものが分かりやすくていいかと思います(すいません、モバイル開発興味範囲外です)。ほぼ同様の内容な他セッションもありましたが、開発画面が表示されていたので本サイトではこちらだけをピックアップしています。 13390_introduction_rhm_platform-2
13390_introduction_rhm_platform-3
RED HAT ENTERPRISE LINUX OPENSTACK PLATFORM ON INKTANK CEPH ENTERPRISE CINDER VOLUME PERFORMANCE
13620_performance_ceph-1 13620_performance_ceph-2  本セッションは、Red Hat Summit用の Cephの性能について評価したホワイトペーパーについて解説したものです。ドキュメントは 2014年 12月のものですので Red Hat社が Inktank社を買収した後のものですが、Red Hat Ceph Storageと云う名称は用いられていません。本書の記載が Inktank Ceph Enterprise v1.2.2(v1.2.3から Red Hatが製品化と記憶)なのがその理由なのかと思われますが、セッションを聴講していないので詳細は分かりません。テスト環境には Dellの PowerEdge R620に Intel 82599EB/ixgbe系 NICを利用しています。
CLOUD ARCHITECTURE & PERFORMANCE WORKLOADS
13682_cloud_why_how_when-1  本セッションは、クラウドとは何かから始まり。性能向上のための技術要素として、KVM awareness of NUMA、SR-IOV、DPDKについての説明がありました。KVM awareness of NUMAの説明でパッと分かりやすい資料が他のセッションでは見当たらなかったのですが、これは一目でわかっていい感じです。
13682_cloud_why_how_when-2 13682_cloud_why_how_when-3 13682_cloud_why_how_when-4 13682_cloud_why_how_when-5
BIG DATA IN THE OPEN PRIVATE CLOUD
13696_big_data_cloud-1  本セッションは、CSC社が OpenStackを利用した BDPaaS(big data platform as a servce)として、Dellの referecne architecutreを用いて実現した実例紹介です。DevOpsのオートメーションとしては Puppetを利用して設定の自動管理をしています。OpenStackは正直興味ない(気がするかも)... とか思っている人でも、big dataと OpenStackは結構相性いいと思いますので、無視できないかと思います。
13696_big_data_cloud-2 13696_big_data_cloud-3 13696_big_data_cloud-4
SATELLITE 6 UPDATE AND ROADMAP
13706_rhs6_demonstration-1 13706_rhs6_demonstration-2  本セッションは、Red Hat Satelliteのロードマップです。v6.1の機能説明がありましたが、errataがリリースされた場合に emailでの通知が可能になっているのは非常に便利かと思います。現時点では Red Hat Enterprise Atomic Hostの rpm-ostreeとコンテナへの対応へは対応されておりませんが、2016年 Q1リリース予定の v6.2で対応があるとの事でした。現在の Red Hat Enterprise Linux Atomic Hostは Red Hat Network(RHN)と連携するのではなく、Red Hat Subscription Manager(RHSM)とのみ連携する事からの理由かなと思われます。あと、Satelliteが Active-Activeクラスターへの対応も予定されています。後半はデモでしたが離席して別セッションを聴講していたため内容は不明です。
MANAGING CONTAINERS WITH RED HAT ENTERPRISE LINUX ATOMIC HOST
13719_atomic_host-1 13719_atomic_host-2  本セッションは、Red Hat Enterprise Atomic Hostとはどの様なコンポーネントで構成されているのかから始まり。Dockerで httpdを起動し Hello, world!を表示する例までを網羅した内容となっています。A Red Hat subscription permits RHEL Atomic Host software updates and yum updates in containers.との記載がありました。別の Red Hat社のドキュメントを見ると現在の Atomic Hostには Red Hat Enterprise Linux Atomic Hostと Red Hat Enterprise Linux両方のエンタイトルメントが含まれているとの記載があり、エンタイトルメントが不足している場合は Red Hatまでご連絡くださいとの事ですので、起動した Docker上で Red Hat Enterprise Linux 6を利用する場合には、別途エンタイトルメントを安価に提供とかしてくれるのでしょうかね(不勉強ですいません)? Dockerの利用方法としてアプリケーション毎にコンテナを起動して利用する(義務感的)と云うのがあるかと思いますが、そうであれば起動するコンテナ数に関係なく無制限に yumでのアップデートを行わせてくれるのかと思いますが、KVMの代わりとして仮想化集約的な目的での利用も当然あると思います。今後もこのままのサブスクリプション形態でいくのかちょっと注目ですね。やはり、Docker自体の流行具合にも左右されるのでしょうかね。
DRIVING INNOVATION IN OPENSTACK FOR NETWORK FUNCTIONS VIRTUALIZATION (NFV)
13750_virtualization_nfv-1  本セッションは、NFVが OpenStack環境でどの様に進化していくのかについてのものです。正直なところ NFV自体が門外漢(と云うかテレコ自体が)ですので、聞きなれない単語で理解出来なかった部分の方が多かったのですが、はっきり云えるのは NVFと OpenStackは完全に一体化していると考えていいのかと思います。別セッションで説明があった real-time KVMと DPDKを一番欲し、開発を促しているるのはテレコ業界なのかと思われます。
13750_virtualization_nfv-2 13750_virtualization_nfv-3 13750_virtualization_nfv-4
RED HAT GLUSTER STORAGE PERFORMANCE
13767_rhgs_performance-1 13767_rhgs_performance-2  Red Hat Gluster Storageの性能についてのセッションです。GlusterFS 3.7で実装された multi-thread epollにより細かいファイルを大量に扱う場合に性能が向上していると云うのは別セッションで聞いていましたが、本セッションでは具体的な性能について示されており、クライアントが利用する mount point毎にマルチスレッドとして動作し、サーバ側の brick単位でもマルチスレッドとして動作するとの事です(本セッションの別スライドから鑑みるに multi-thread epollだけでなく libgfapiの効果も多分にある様ですがその切分けは不明)。SSDs as bricksのスライドでは 4KB random readではチューニングしないと性能があまり出ていないと云うのが bad newsとして取り上げられています。従来、Red Hat Gluster Storageでのハードウェア構成としては、ハードウェア RAIDの level 6(RAID-6)が基本推奨とされ、データレプリカが 2ヶ用意され保護された HW-RAID+replica-2と云うものでした。今回ではハードウェア RAID無しの JBOD(just bunch of disks)にレプリカを 3ヶに増やした JBOD+replica-3構成でのテスト結果が示されています。Hadoopで利用する HDFSでもそうですが、ハードウェア RAIDを利用する場合には、コントローラがボトルネックを招きやすく、ベンダー固有な部分があるために管理がシステムにより異なる事、コントローラ分のコストが上昇する点があります。ハードウェアを利用しないこの方式の欠点としてはシーケンシャルでの性能をあげずらい事、ボリューム内に大量の brickの配置が必要となる事があげられています。この構成が安定して動作するなら Red Hat Gluster Storageの導入範囲が広がると思われます。この JBOD+replica-3方式はスケールアウトした構成で既に従来の HW-RAID+replica-2を上回っているとの事です。この JBOD+replica-2とは別に replica-3(replica-2+メタデータ)な Arbitorボリュームと云うのが実装されていたと思いますが、これが同じものなのか勉強不足で分かりませんでした。
 NFSを利用する際の機能向上面として、GlusterFSに内蔵された native-NFSではなくユーザランドで動作する NFS-Ganeshaも大きく寄与しているとの事です。従来のアクセスは FUSEを利用していましたが libgfapiを利用します。NFS-Ganeshaは NFSの v4を喋る事が可能ですし、Pacemakerと Corosyncを利用する事で Active-Activeなクラスタ構成が利用可能となります。このセッションでも native-NFSがこの先どうなるかについての説明はありませんでした。逆にこの NFS-Ganeshaで注意が必要なのは NFS v3がまだ Technology Preview段階である事があげられます。
 ノードを追加した場合、リバランスを行う必要がありましたがその際従来のアリゴリズムでは巧くリバランスできなかった小さいファイルについて改善されています。またリバランス自体も全ての bricksに対してパラレルで動作するため速度も大きく向上しているとの事です。sharding-xlatorと云うファイルを分散してノードに跨らせる機能は GlusterFS v3.7にもコードとしては実装されていますが、これについての説明はありませんでしたので GlusteFS v4.0ベースでの Red Hat Gluster Storageに期待と云う事になるのかと思われます。
 現時点で Red Hat Gluster Storageを構成する際の注意点として、大容量の RAIDボリュームを作成しない様にとの事でした。これは glusterfsdが 1ヶしかないためにボトルネックになるため、RAIDボリュームは複数に分けろとの事です。
OPENSHIFT IN PRODUCTION: CUSTOMER PANEL
13782_customer_panel-1 13782_customer_panel-2  OpenShiftの長年のユーザがディスカッションするカスタマーパネルです。参加していないので内容は不明です。資料によると DreamWorks社が 2011年に OpenShift v1.0からテスト開始し 2012年秋に本格稼働させたとの事です。他にも金融業界のバークレイズ社、Wharton大学とそうそうたるメンバーですが、もう一社が Computer Associates(CA)社と云うのが意外です。同社は IT業界に君臨する巨大なソフトウェア企業なので、自社の DevOpsツールを構築しているのかと思っていましたが、OpenShiftを利用しているとの事です(独自開発のもあるのかもしれませんが)。
OPENSTACK NIVRANA: BIG DATA & ELASTIC INFRASTRUCTURE TOGETHER AT LAST
13786_openstack_nirvana-1  ビッグデータ環境用にベアメタルシステムを OpenStackで構築するための OpenStackの Saharaと Ironicの現状に関するセッションです。Saharaは Hadoopや Spark等のビッグデータのクラスタ環境を構築したり管理するためのもので、Ironicは OpenStackで仮想化ではなくベアメタルな環境をデプロイするためのものです。Saharaは OpenStackのデータ処理向けのプロジェクトです。具体的には Hadoop向けの環境をデプロイし管理するためもので Hadoop As A Serviceと呼ばれています。ビッグデータのやっかいな点の一つとしては、非構造化データの解析と云うのは実行してみないと期待した結果が得られるのか分からない場面が多い事があげられます。そのために Haoop向けの大規模環境を構築し、長時間稼働させた後で、残念な結果となった場合再度その環境を類似の検索のために使い続ける事をあきらめた場合、構築のための苦労が泡となります。これらの労力を考えると構築を素早く行い、データ処理を試してみて期待した結果が得られればリソースを追加し、期待した結果が得られなければリソースを解放し別の目的に割り当てる事が可能となります。このためビッグデータこそ OpenStackとの相性がよいものの一つと云えるかと思われます。
 もう 1つ別のキーとなるのが、OpenStackで実現するのが Ironicプロジェクトです。仮想化もいいですが、やはり性能面で baremetalを利用したい場合が出てきます。特に長期間同じ目的で利用するリソースであるなら仮想化しておく理由はあまりありません(乱暴ですいません)。その様な場合には Ironicでの baremetalのデプロイは有効であり、Hadoop専用ノードの構築もそうですが、HPC系の様に少しでも性能のロスをしたくない場合には有効と思われます。仮想化と baremetalでの HDFSの性能比較が示され、オーバーヘッドが大きいのでかなりのチューニングが必要となる事も示されています。Ironicは Red Hat Enterprise Linux OpenStack Platform(RHEL OSP) 7でサポートが行われ、8ではトポロジーを意識したものとなる予定です。
 本セッションでは牛の写真に対して No pets here - all catle!と示されました。これはコンピュータリソースとしてのノード等を構築し可愛がるペットではなく、家畜の牛として必要な時に弾力性(elastic)がある運用とするべきとしていました。
 余談ですが、We need more cloud(cowbell)!と云う米国のサターデーナイトライブと云うコメディ番組で Christopher Walken(Graham Bonnet似)が演じた Bruce Dickinson(元ネタは Iron Maidenのボーカル)がスライドに使われています。その後の OpenStack in 2 Minutes!と云うのも Iron Maidenの 2 Minutes to Midnight.が元ネタと思われます。
13786_openstack_nirvana-2 13786_openstack_nirvana-3 13786_openstack_nirvana-4 13786_openstack_nirvana-5 13786_openstack_nirvana-6
RHEL OPENSTACK PLATFORM DIRECTOR OVERVIEW AND ROADMAP
13790_rhe_linux_roadmap-1
13790_rhe_linux_roadmap-2
13790_rhe_linux_roadmap-3
 本セッションは、OpenStackの Triple-Oを中心として OpenStack自身のデプロイについてのものです。OpenStackを導入してしまえばリソースのデプロイは簡単に行う事が可能ですが、まず OpenStackをデプロイするのが面倒です。Red Hat Enterprise Linux OpenStack(RHEL OSP)だと Packstackとかで簡単にデプロイ(Icehouse迄の知識で、すいません)できますが、ちょっと柔軟性は高くないですよね。これを OpenStack On OpenStackとして行うのが OOOで、Triple-Oプロジェクトです。OpenStackを baremetalにデプロイします。この際サーバーのハードウェア構成の変更も行うために RAID, NIC, BIOSの設定、システムのヘルスチェックを行いデプロイを行います。ハードウェアでこれに対応しているとして紹介されたのが Dellの DRACと NetAppでした。ここには記載がありませんでしたが DRAC経由でファームウェアのアップデートも可能な感じ(どこまでのデバイスが対応するのでしょうかね?)です。Dellと Red Hatは共同で Triple-Oへの DRAC統合を共同作業しているとの事でした。baremetalへのデプロイではなく仮想化環境上に更に仮想化環境を構築する方法もありますが、本セッションでは詳しくは取り上げていませんでした。KVMで実現するには nested KVMの安定化がまたれるところなのかと思われます。
DELL AND RED HAT'S OPENSTACK JOURNEY TO ENTERPRISE
13807_dell_enterprise-1  本セッションは、Dell社と Red Hat社での OpenStackの共同作業についてのものです。セッション未参加なのでスライドでしか判断できませんが、協業している事を示しているのとハードウェア構成等の紹介に徹している内容です。DRACと Triple-Oを用いて Red Hat Enterprise Linux OepnStack Platform(RHEL OSP) 7でのハードウェア構成変更を行うための共同作業等について前面に押し出してもいいのではないでしょうかね(ちょっとうらやましいです)。Demoに記載のある Fault injection - iDRAC kill power Controller nodeってのが何なのか気になります。#ipmitool chassisから何かやるのか、汎用もしくは Dell提供の injectionツールを使っての話でしょうかね?
USING RED HAT SYSTEMS MANAGEMENT TOOLS IN A HYBRID CLOUD
13831_based_infrastructure-1 13831_based_infrastructure-2  本セッションは、Red Hat Enterprise Linux Atomic Hostとは何かから始まり、OpenStackや Red Hat Satellite Serverとの連携等の概要セッションです。未参加のためスライドからだけでは概要しか把握できませんでした。
CEPH BLOCK DEVICES: A DEEP DIVE
xxx xxx  本セッションは、Red Hat Ceph Storageについての技術セッションです。RGW(Amazon S3, OpenStack Swift互換の API)、RBD(ブロックデバイス)、CephFS(ファイルシステム)の下層にある LIBRADOSと RADOS、そして CRUSHアリゴリズムについて解説していたと思われますが、本セッションには未参加であり、スライドには説明があまりないので大半は口頭での説明だったのかと思われます(当方の Cephの理解度低し)。
PERFORMANCE ANALYSIS AND TUNING - PART 1
PERFORMANCE ANALYSIS AND TUNING - PART 2
15284_rhe_linux-1  本セッションの PART Iでは、毎年行われる内容の積み重ねであるため去年までのものとかぶっている部分も多くなっています。今年は、NUMA周りが高速化がされた Red Hat Enterprise Linux 7.1と 6.6での比較結果が示されています。PART Iの結論としては、Red Hat Enterprise Linux 6.6の autonumaではある程度チューニングが必要なアプリケーションもそこそこあったが、7.1になり殆どのアプリケーションではそのまま autonumaだけで十分な性能が得られる様になったと結論づけています。
 PART IIでは昨年には触れられていなかった Red Hat Enterprise Lnux Atomic Hostについての項目が追加されています。Atomic環境は手を入れる場所が少なく書き込み可能なディレクトリも一部であるため tunedを利用した profileでのチューニングとなります。Red Hat Enterprise Linuxでも #tuned-adm listと叩くと既に定義された profileリストが表示されますが、Atomic環境用のプロファイルとして atomic-guestと atomic-hostプロファイルが用意されています。前者は従来の virtual-guestプロファイル、後者は throughput-performanceプロファイルを Atomic向けに変更したものとなり、主に SELinux関連での高速化が図られています。
 NFVに関するスライドでは Red Hat Enterprise Linux 7.2でのスケジューラの効率化や、DPDK(data plane development kit)を利用し 225Mppsのハードウェアの理論性能に対して 218Mpps迄の性能を発揮している事が示されています。他のセッションを見ても実感できますが、現在のネットワーク関連の話題は DPDK一色な感があります。
15284_rhe_linux-2 15284_rhe_linux-3 15284_rhe_linux-4 15284_rhe_linux-5 15284_rhe_linux-6
DRIVEN TO INNOVATE
17855_nascar-1  本セッションは、HPのビッグデータプラットフォームである Havenを利用して米国の NASCARレースの非構造化データ解析を行っていると云う事例紹介です。Hadoopを利用して市場の反応を可視化しブランドの確立に役立てる。視聴者が SNS等でどの様なアクションを起こしているのかの調査。それらの結果としての新規ビジネスモデルの立ち上げに繋げています。具体的なシステム構成は、Vertica + JBoss + IDOL(Autonomy)を利用した構成とし、Twitter, Facebook, Google+, Instagram Reddit, Tumblr, YouTube, RSS, Blogs等を対象データとしています。この構成で異彩を放つのは、IDOL(intelligent data operating layer)かと思います。ビッグデータで扱う非構造化データを可視化するには、得たい結果をある程度予測できた方が効率的な事が多いと思われますが、それが何なのかはそのデータの内容に長けたものである必要性が生じます。しかし、NASCARのユーザの様に多種多様なユーザの場合にはそれを予測する事は容易ではありません。IDOLは統計的なアルゴリズムによりデータの意味を掘り出す事が可能となります。この部分に関しては他社がまねできない部分として大きな差別化要因になるのかと思われます。本セッションとは別に Red Hat Summitの EXPO展示には HPも大きなブースを構えていましたが、そこでのメインテーマはこの NASCARを中心としたものとなっていました。
17855_nascar-2 17855_nascar-3 17855_nascar-4 17855_nascar-5 17855_nascar-6

製品展示ブース

expo-1 大ホール 2つ分の面積を用いて Red Hat社とパートナー企業が製品展示を EXPO形式で行っていました。
expo-2 expo-3 expo-4 expo-5
amd-1 AMD社は x86_64ではない ARM 64な Opteronの実機の静展示を行っていました。
arm-1 ARM社と Hortonworks社です。ARM社は Red Hat Enterprise Linux for ARMの Developer Previewプログラムの案内と、アプリケーション開発支援による ECOシステム構築についての案内を行っていました。今、商用 Hadoopで勢いづいている Hortonworks社(昨年 HPが出資しています)も出展していましたが、プレゼン展示のみでした。
brocade-1 意外と云っては失礼ですが、Brocade社のブースが結構大きかったのには驚きました(去年までの EXPO展示の印象全くなかったので)。古い時代に生きている私は Ethernet Fabricなネットワークスイッチでも出しているのかと思いましたが、Red Hat Enterprise Linux OpenStack Platform向けの Cinder, Neutronプラグインや、Fibre Channelストレージのオーケストレーションでの自動ゾーニング等が Horizonから操作できる様になっているみたいで、OpenStack一色の展示でした。
brocade-2 brocade-3 brocade-4 brocade-5
cisco-1 Cisco社です。今回の Red Hat Summitで唯一のプレミアスポンサーです。UCSを中心とした Red Hat Enterprise Linuxでのシステム構築の容易さ、性能への訴求。OpenStackへの関わり等の積極的にアピールされており、特にネットワーク事業者向けへのアピールが強かったと思います。Red Hat Summit開催直前に同社は OpenStackディストリビュータの Piston Cloud Computing社を買収しています。Piston CloudOSはターンキーシステムとして簡単にインストールが行える OpenStackとして開発されたものです。Piston関連の展示や説明があるのかと思いましたが、少なくとも展示は見つけられませんでした。
cisco-2 cisco-3 cisco-4 cisco-5 cisco-6
dell-1 future ready? と題した展示を行っていた Dell社です。個人的に意外過ぎたのは同社が完全に OpenStack一色だった事です。upstream関連では同社の名前を聞くことはあまりありませんが、販売戦略としては OpenStack一本な勢いです。前述した技術セッションであった様に DRAC(ProLiantで云う iLO4)から BIOS, NIC, RAIDの設定が RESTful API経由で設定でき、OpenStackの Triple-Oに対応してきているらしいので、そこら辺の展示とかがあるのかと思ったのですが、特段見当たりませんでした(声掛け質問迄はしていません)。ちょっとこの機能は興味深いものがあります。
dell-2 dell-3 dell-4 dell-5 dell-6
hp-1 Race to the New Style of Business.として HPは前述した技術セッションの通り NASCARを前面に押し出す NASCARのレースシミュレータ(ゲームです)を行いつつ、NASCARへ提供しているビッグデータでの処理とそのサービス支援サービスを訴求していました。今回の Red Hat Summitには、遊び心的なもの(ビリヤード台みたいな)がなく、遊び心的な着ぐるみ(Red Hatマンみたいな人)もいなかったので、このレースゲームが Red Hat Summitで唯一の遊び心展示だったのかと思われます。新製品としては Apollo 4510が展示されていました。SuperDome Xのブレードが静展示されていましたが、せっかくならラックを持ち込んで実稼働させて頂きたかったところです。あと、HPの OpenStackディストリビューション Helionが Red Hat Summitでの展示としては適していないのかとは思いますが、もう少し OpenStack色が前面に出ているかと思っていたので、意外な感じを受けました。
hp-2 hp-3 hp-4 hp-5 hp-6
docker_1 ibm-2  IBMです。x86サーバの xSeriesを Lenovo社に売却したので展示ブースもこじんまりしたかと云えばそんな事はなく、毎度のことながら System zを持ち込んでいます。同しシステムはニューヨーク州にあるシラキュース大学で全米の大学教授等をあつめてのメインフレームの堅牢性等のデモを行ったらしいです。そこから System zの常設を行いテストドライブとして稼働させている模様です(間違ってたらすいません)。同社は他のベンダーとは異なり、OpenStackがあまり前面に出ていない感じでした。
lenovo-1 かつての IBMの xSeriesは現在 Lenovo社のサーバー製品となっています。実機展示はなくハードウェアの製品説明が行われていました。
netapp-1 p-NFSが思ったよりも広まっていない感じを個人的には受けているのですが、それはおいといても NetApp社は毎年ブースは小ぶりながらも Red Hat Summitでは見るに値する重要ベンダーかと思われます。今年は Ciscoとの共同開発システムである検証済み統合ソリューションシステムとなる FlexPodがメインソリューションとなっていました。展示の説明にはありませんでしたが、OpenStackの Triple-Oでの RESTful API経由でのストレージ構成機能が今後のストレージ業界でのデファクト的なものになってくるのでしょうかね。
intel-1  Intel社です。同社製 SSDストレージを Red Hat Ceph Storageで利用した All Flash Storageが人気を集めていました。同社のかつての展示は CPUや 10Gb Ethernetコントローラ等のハードウェア展示が主流だった時期もありましたが、現在では NFV(network function virtualization)を実現するために、DPDK(data plane development kit)を利用した OpenStackの Neutronへの組込みを推進する等、次世代ネットワーク基盤への参入が目立つ展示になってきています。Red Hat Summiteでの視点だけなら、セミコンダクターだけのハード屋と云う感じではなくなっていると思います。 intel-2
intel-3
redhat-1 あたりまえですが、今回一番大規模なブースを確保している Red Hat社です。展示は Red Hat Enterprise Linux Atomic Host、OpenShift Enterprise等が中心となった Docker関連と OpenStackを中心とした Red Hat Enterprise Linux OpenStack Platformと統合管理製品 CloudForms、アプリケーションサーバの JBossと見るべきものが本当に多かった同社の展示です。基本すべての製品は Linuxで稼働しているとは云え、Red Hat Enterprise Linux中心の展示だった時代が懐かしいぐらいで、この EXPO展示部分でペンギンの TUXにお目に書かれたのは他社のブース 1コマだけでした。個人的には、最近入手がしづらくなっている同社のソフトウェアを Evaluationの DVDとか配って欲しいと考えていたのですが、そもそも、会場で DVDを配っているブース自体殆ど目にしませんでした。
redhat-2 redhat-3 redhat-4 redhat-5 redhat-6
redhat-7 redhat-8 redhat-9 redhat-a redhat-b
sap-1 インメモリデータベース HANAを抱えている SAP社です。Red Hat Summit終了直後の 7月 1日に Red Hat Enterprise Linux for SAP HANAを Amazon AWS向けにサポート範囲を拡大する事が Red Hat社から発表されています。
expo_001 expo_002 expo_003 expo_004 expo_005 expo_006 expo_007
expo_008 expo_009 expo_010 expo_011 expo_012 expo_013 expo_014
expo_015 expo_016 expo_017 expo_018 expo_019 expo_020 expo_021
expo_022 expo_023 expo_024 expo_025 expo_026 expo_027 expo_028

カスタマーエクスペリエンス ブース

expo_001 expo_002  EXPO部分とは別の会場に Red Hat社のサービス部門を中心としたサービス製品の展示と相談コーナーがありました。これは前述のパートナーパビリオンとは離れていたところで、会場の受付前と云う導線がよくないところにあった事。マシン展示等もないため通るたびにガラガラでした。Lightning Talksみたいなものもやっていたのですが、詳細なスケジュール時間もその場に行かねば分からないし、テクニカルセッションから微妙に離れているので勿体なかったです。パートナーパビリオンの出店場所は少しあまっていましたので、そちらに集約した方が結果としてはよかったのかと思います。うがった見方をさせて頂くと、IBM社のスポンサーランクが 1ヶ下がったのがブースのコマ数や諸々(諸々...)に影響したのかなと云うのが脳裏をよぎりました。ただもしかすると EXPO展示の同社ブースと合わせてしまうとあまりにも巨大になり過ぎるので敢えて分けたのかもしれません。

トレーニングついて

tra_001 tra_002  Red Hat Summitでは受講する形態の技術セッションとは別に、PCが用意されたトレーニングコースも用意されています。100席近い数のシートが用意された自習形式のものと予約形態のインストラクター付きのコースの 2形態があります。前者は、Red Hat Enterprise Linux 7を利用した、アップグレード、インストール、systemdのセットアップ、firewalld、Gnome3、Docker等をはじめとして OpenStack, Red Hat Gluster/Ceph Storage, Red Hat Satellite, JBoss等、恐らく Red Hat社の全製品が網羅された自習用環境が用意されていました。去年とは異なり、ネットワーク上に PDFが用意されていてそれを読んで実習を行う形式ではなく、印刷物を読みながら自習する形態に変更されました。去年は受講セッションを抜けてまで PDFを入手しなければなりませんでしたのでこれは非常にありがたかったです。印刷物は Red Hat Summit期間中ずっと提供されていましたので、いつ取りにいっても構わないのがよかったです(最終日は人気のある印刷物はカラーではなく白黒での提供になっていました)。後者のトレーニング形態は事前に予約をしていなくても順番待ちをすれば受けられるっぽい感じもしましたが、一部有償っぽい感じでもあり未受講のため詳細は分かりませんでした。

ナイトイベントについて

/1-night  三日目の夜には恒例のナイトイベントがあります。一昨年の Bostonで行われたナイトイベントはパブを借り切って行っていました。今年は、去年の San Francisco同様にボストンの科学博物館を借り切ってのパーティでした。恐らく普段はここでは飲食させて貰えないのではないかと云う感じの場所です。今年も音楽が鳴り響くブースはあるにはあったのですが、去年同様に主役は音楽ではなく、体育館の数倍規模にぎっしり展示されたもの珍しい実験器具が主役です。IT野郎とパブはあまり相性がよろしくないと個人的には思うので、この手の博物館でイベントを開催していただくのは嬉しいです。このため 一昨年のパブの時に比べると早々に退出する人はあまり居なかったのではないかと思われます。 /2-night
/3-night
/4-night 科学博物館の展示内容自体は今年は、去年の San Franciscoの方は私営(?)で見せる感が強い内容だったのに対して、こちらは市営で教育色が強い展示内容でした。説明員が乗り込んでいる金属カゴが上下に移動していて、その金属カゴに対してバチっと云う大音響と共に高圧電流を空気中に放電して金属カゴに着電させても 「大丈夫です!」と云う相当大規模な実験がなかなか見応えがありました。あと、去年に比べると食事が豪華になっており、最初に出迎えてくれたのは生牡蠣の食べ放題でした。この後 11時以降は、飲み足りない参加者は無料のチケットを持っての恒例、深夜のパブ巡りツアーに出向いて嵌めを外していました(今まで一度たりとも参加した事がありませんので想像です)。
night_other_001 night_other_002 night_other_003 night_other_004 night_other_005 night_other_006 night_other_007
night_other_008 night_other_009 night_other_010 night_other_011 night_other_012 night_other_013 night_other_014
/5-night /6-night /7-night

Red Hat Professional向けイベント

1-pub 2-pub  二日目の夕食と同時開催として、本会場の向かいにあるパブを借り切って Red Hat認定エンジニア向けのプライベートイベントが開催されていました。パブだけに本会場よりもお酒の種類が多かったのと、そこでしか手に入らないらしいTシャツとグッズが配られていました。

Cockpitについて

cockpit_system cockpit_dashboard  Project Atomicの成果物である Cockpitを Fedora 22で試してみました。Cockpitと云うのは簡単に云えば WEBベースのシステム管理ツールです。簡単にシステムの状況を能動的に確認するには便利なツールかと思います。基本はレフトメニューから管理したい項目を選択して、移動先に表示されるトップメニューで更なる移動を行います。管理対象となるのはローカルノードだけではなく複数サーバが可能でダッシュボードから追加できます。journaldとかに不慣れな化石人としてはありがたそうなツールです。
cockpit_journal cockpit_language cockpit_networking cockpit_service cockpit_storage
cockpit_system-memory 若干わかりづらいのは、移動方法が完全に統一されていない(System ⇒ Memoryへ移動した際のトップメニューが無い)ので慣れが必要です。また、表示されるグラフは表示されるページによってデータの見方に注意が必要です(ダッシュボードで表示される Memoryのグラフは連続していますが、Systemから辿った場合の Memoryは Cockpitでの操作を行っている箇所のデータが欠落しています)。また、これらのデータはダッシュボードを除き、項目を開いてからのデータしか表示されません。またデータを保存する機能もないみたいですので、履歴をさかのぼって障害時点のステータスを確認する事はできません。また、システムの状況変化を受動的に、つまり何か問題が起きた場合に mailや SNMPを飛ばす等の機能は少なくとも Fedora 22向けのものにはありませんでした。Project Atomicの趣旨的に合致しているのか分かりませんが、この 2項目が備われば、有償の統合管理ソフトウェアを高度には使っていない範囲のユーザの獲得ができると思われますので、これから追加のプラグイン等が開発される事に期待したいところです。
cockpit_container-terminal-1 コンテナに関してですが、マウスでポチポチするだけで簡単に Docker内のターミナルが表示されるのがお気楽でよろしい感じです(Kubernetesから pod単位でのデプロイしてから能動的に確認ですかね)。但し、この Dockerを走らせる事は Fedora 22の Cockpitからは行えませんでした。イメージ検索は可能ですが、ダウンロードしようとすると Clinet is too old, minimum supported API version is 1.12と表示されてしまいますので、コマンドラインから #docker pullして runする必要があります。一度 runすればCockpit上で表示されます。この問題が Project Atomicの Bugzillaに登録されていなかったのがちょっと気になります。Coockpitは Dockerつまり、コンテナ専用ツールと云う訳ではなく、追加のプラグインでコンテナ対応しています。開発元の環境ではイメージダウンロードの機能は動作しているが、Fedora 22では動作していないと云う話なのかと思われます。このエラーは RESTfulっぽい通信をする際に POST側が v1.10指定で動作しているので SSL connectionを貼る際に利用される urllib3のバージョンが低い事が原因な気がします(勘違いならすいません)。だとすれば Red Hat Enterprise Linux Atomic Host版だと v1.10でも行ける様にしているのかもしれないですね。
cockpit_container-image-search cockpit_container-image-search-2

雑感

end_other_003
end_other_001
end_other_002
 Red Hat Summitはその主軸となる Red Hat Enterprise Linuxの観点で考えると、Intelの Tick-Tockモデルよろしく 1年交互に新機能の実装(Tech. Preview)の年と正式サポートの年が繰り返されていると個人的には考えております(OpenStackの様に半年毎に projectが更新されるものは別の話として)。

 去年は Red Hat Enterprise Linux 7がメインとなり新製品の発表ラッシュなド派手なイベントでしたが、今年は製品観点ではなくソリューション観点からの実用的な話が多くなったのかと思われます。また、去年は話だけで製品概要がほとんどわからなかった製品が今年はデモで動作するところを見る事ができたり、実際の適用範囲が示されたりもしたために、Dockerをはじめとした新技術がエンタープライズ分野でも実用化の段階に入ったと思わせる内容が多くなったと云う印象を受けました。
 去年に引き続いての主役である DevOpsとしての Dockerですが、Dev側の観点では Docker周りがどう進化していこうが Dockerは Dockerであるので、現時点から Dockerで開発を進めてしまっても問題はないかと思いますが、Ops側はまだ混沌としているのが正直な感想です。これから導入する場合には Kubernetes一択であるのかがはっきり見えないと云う声も会場では聞かれました。現時点でエンタープライズとして運用するには先進的な一部の企業は既に自社開発しているツールをしばらくは使っていくのかと思いますが、Docker Inc.が自社開発する Swarmをはじめとしたものや Canonical社の LXD(Linux container daemon)等がどう絡み合っていくのか注目したいところです。ただ、サポートの観点。それも国内でのサポートを考えると Red Hat一択しかでしょうね。
1-end 2-end  journaldな昨今ですが、参加者全員に配られたリュックには syslog-ngのパンフレットが入っていました。あと、GRIDと云う単語が全く聞かれなくなりました。

 地味に嬉しかったのは、去年廃止されてしまった毎日発刊のダイジェストニュースが SHOW DAILYとして復活した事です(四コマ漫画は復活していません)。
 来年の Red Hat Summitはまた西海岸の San Franciscoに戻り、6月 28 〜 7月 1日の開催となります。
end_other_001 end_other_002 end_other_003 end_other_004 end_other_005
end_other_006 end_other_007 end_other_008 end_other_009 end_other_010 meal meal2
では、ではMay.
このページのトップへ戻る
印刷用画面へ印刷用画面へ
プライバシー ご利用条件・免責事項