株式会社プロトソリューション(本社:沖縄県宜野湾市、代表取締役社長:白木 享)は、2021年10月1日(金)より、沖縄出身アーティスト「きいやま商店」と沖縄出身コメディアン「凸凹トラベリング」の 5 名が扮する「グーネットレンジ」を新イメージキャラクターとして起用した新 CM を放送いたします。

本CMでは、沖縄県を拠点に活動する男性5人組ロックバンド「ORANGE RANGE」の楽曲『以心電信』のカバー曲にのせて、本 CM オリジナルキャラクター「グーネットレンジ」の 5 名が、沖縄県内の人気スポットに登場します。謎の美女を取り巻く 5 人のアピールや、息の合ったオリジナルダンスにもご注目ください。CM動画は、株式会社プロトソリューションのホームページ内「グーネット沖縄」サービスページ内をはじめ、YouTube(ユーチューブ)内グーネット沖縄公式チャンネル等でご覧いただけます。

株式会社プロトソリューションは、グーネット沖縄を通じユーザーのカーライフに有益な様々なクルマ関連情報の提供を推進してまいります。

◆クルマ情報メディア「グーネット沖縄」
グーネット沖縄 URL:https://ok.goo-net.com/

◆新「グーネット沖縄」CM 概要
・CM「グーネット沖縄 グーネットレンジ ドライブ編 15 秒」 URL:https://youtu.be/TZvrhIIb5bg
・CM「グーネット沖縄 グーネットレンジ ダンス編 15 秒」 URL:https://youtu.be/LA4HSt1yJfw
・CM「グーネット沖縄 グーネットレンジ編 30 秒」 URL:https://youtu.be/1yS8z7RG9Qc
・CM「グーネット沖縄 グーネットレンジ編フルバージョン」 URL:https://youtu.be/RKLwKKVp_uM

◆「グーネット沖縄」CM 動画キャプチャー

◆タレントプロフィール
<きいやま商店>

リョーサ / だいちゃん / マスト
石垣島出身の従兄弟・兄弟で結成されたエンタメバンド「きいやま商店」
活動期間:2008 年~
事務所:有限会社フライング・ハイ

<凸凹トラベリング>

りょうと / かいり
沖縄本島出身の沖縄アイドル芸人
結成時期:2016 年
事務所:有限会社 FEC オフィス


<崎山一葉 (謎の美女)>

崎山 一葉
テレビ・ラジオなどでマルチに活躍するタレント
ミス沖縄(2011 年 8 月~2012 年 12 月)
事務所:オフィスリゾム

株式会社プロトソリューション 会社概要

代表者 :代表取締役社長 白木 享(しらき とおる)
所在地 :沖縄県宜野湾市大山 7-10-25
設立 :2007 年 4 月 3 日
事業内容:デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
コーポレートサイト:https://www.protosolution.co.jp/

<本リリースに関するお問い合わせ先>
株式会社プロトソリューション
[沖縄本社] メディア事業推進室 広報担当:玉城 久子(たまき ひさこ)
Tel: 098-890-2400 Fax:098-890-2404
E-Mail:h-tamaki@protosolution.co.jp

はじめに
はじめまして。プロトソリューション東京支社の鈴木啓示(けいし)と申します。

※元プロ野球選手と同姓同名で、野球ファンだと反応するようです…

IT部門 ソリューション開発部東京2で自社初のSaaSプロダクト、受付クラウドシステム「ラクネコ」の営業をしています。

今回は私がどのようなキャリアを経てSaaS営業に携わるようになったかをご紹介いたします。最後までご覧頂ければ幸いです。

茨城から東京へ

1985年茨城県日立市出身。高校まで茨城にいて、中央大学入学とともに東京へ。

高校は野球部、大学はソフトボール部に所属していました。

大学卒業後、新卒採用を始めたばかりだということに魅力を感じ、外資系のゴルフ場運営会社に新卒1期生として入社、千葉のゴルフ場で1年間研修した後に本社配属になりました。その後、法人営業として4年間在籍した後、2013年3月に株式会社プロトデータセンター(現・株式会社プロトソリューション)へ入社しました。

初の転職

転職したきっかけとしては、4年間ゴルフの営業をしてみて、それ以外の世界を見てみたいというのが一番大きかったでしょうか。そこで、知り合いのエージェントから紹介頂いたのがプロトソリューションでした。はじめに採用担当の方と面談をして、その次が社長面談でした。初めての転職だったので、かなり緊張はしたのですが、同時に「なんとなく合いそうだな」という雰囲気が感じられ、思い切って入社を決めました。正直フィーリングだったのですが、入社してもう8年以上になるので正解だったのかなと(笑)

最初に、と言うかつい最近(2年前)まで私は営業部門の営業部という部署に所属していました。

営業部ではBPO(ビジネスプロセスアウトソーシング)業務の営業窓口を担当しており、沖縄拠点でオペレーションを行うコールセンターやデータ入力、Web制作などを商材として扱っていました。

前職では法人営業とはいえ、飛び込み営業など基本一人でかつ商材がゴルフでしたのでそこまで複雑な営業プロセスはなかったのですが、BPO営業ではそれでは通用せず・・・

・仕事は一人ではできない。周りを巻き込む

・まわりの人の短所を自分の長所で埋める

・営業は90%準備で決まる

などなど、その後の営業人生に大きな影響を与えたと言っても過言ではない基本を上司や周りの先輩方に叩きこまれました。

BPOの後はSNS広告やディスプレイ、リスティング広告などのWebマーケティングの営業に携わりました。金融や教育業界を担当し、自分で言うのもなんですが、それはそれは充実した毎日を送っていました。

SaaS営業は突然に・・・

そんな私が2019年の10月にIT部門に異動することになります。

Web広告案件も多く抱えており、ITの知識もお世辞にも豊富とは言えませんでした。かろうじてWeb制作の時にPHPという単語が出てきたかな、くらいで、あとはさっぱりでした。

ここで選択肢として頭に浮かんだのは

・広告営業として今まで通り頑張る

・IT営業としてチャレンジする

まあこの2択なわけですが、ちょっとだけ考えて後者にしました。ちょっとだけってどういうことかというと、どちらの方がいいか判断材料が皆無だったため、

・頑張る

・チャレンジする

ものすごく単純にこの言葉だけを比べてチャレンジしようかなと思った次第です。広告営業にも未練はありましたが、「人生はチャレンジだ」という先輩の言葉を胸にIT領域の営業として来ることを決意しました。(このネタ分かりますかね…)

その後、新規事業としてプロトソリューション初のSaaSである受付クラウドシステム「ラクネコ」の営業担当、そして責任者として白羽の矢が立ちました。ただ・・・最初は全くと言っていいほど売れませんでした!(ここで言って大丈夫かな…)

理由はいろいろあるのですが、今振り返ると、一番大きいのは自信のなさが伝わっていたのかなと思います。同じ営業だけどBPOとの違いに悩んだり、苦しみましたが、ある時点から少しづつ売れるようになりました。理由は以下の3つに集約されるかなと。

・SaaS(ラクネコ)をすべての業務の優先順位のトップに!

・基本に立ち返り、周りとの連携を密に!

・楽しむ!

SaaS(ラクネコ)をすべての業務の優先順位のトップに!

新規事業だったので他にも抱えている業務はあったのですが、お客様にはそんなことは関係ありません。結局、お客様にはいくつかある内の一つの商材に過ぎない、みたいなことを見透かされてしまいます。そうではなく、プロ野球選手は野球で、プロ棋士は将棋でご飯を食べているように、自分もラクネコでご飯を食べるぞ(笑)という気持ちでやりました(今も)。そうすると中途半端な気持ちは自然と無くなるものです。

基本に立ち返り、周りとの連携を密に!

うまくいかなくなった時、いつの間にか孤独になっていたりします。

(皆さんも経験ないでしょうか)

そんなときに周りにアドバイスや助けを求められるかどうか。特にラクネコの場合、マーケティング、開発、カスタマー、営業と大きく分けてもこれだけの役割に分かれており、どこが欠けてもプロジェクトは成立しません。なので営業のアドバイスというより一人一人の頑張りを見て刺激を受けたり、これだけの部署、人数がラクネコ成功のために動いていると思うと感動すらします。

楽しむ!

最後はこれに限るかなと思います。「好きこそ物の上手なれ」という言葉があるとおり、いかにラクネコを好きになり、営業を楽しめるかということを意識しました。楽しむを意識するというとなんだか変な気がしますよね。これは営業に限らないのですが、楽しいこと、うれしいこと、感動というのは伝わります。私は休みの日によく仲間と一緒に草野球やゴルフを楽しんでいるのですが、全く苦にならず、プレッシャーも感じません。

(ゴルフの自分のスコアも見ると苦しくなることはありますが)

もちろん、現在も課題はいろいろあるのですが、自分たちのチームであればなんとかなるという気持ちの方が強く、忙しくも楽しい毎日を過ごしております。

SaaS営業の今後について

今後、プロトソリューションではラクネコに続いて第2、第3のSaaSが出てきます。そのときに営業するうえで大事になってくるのが、圧倒的な商品知識はもちろんのこと、これまでお伝えした、

・SaaS(ラクネコ)をすべての業務の優先順位のトップに!

・基本に立ち返り、周りとの連携を密に!

・楽しむ!

の3つを意識していればだうまくいくと信じています!

また、嬉しいことに今年の8月に初めてSaaS営業の仲間が加わりました!これまでは担当役員と私だけだったのですが、新たに仲間が増えて、ラクネコはさらに盛り上がりを見せております。私としては、どんどん営業が増えていって、さらに周りを巻き込み、プロトソリューションの中で今以上に存在感をだしていきたいですね。

特にラクネコのようなSaaSは売上金額は最初は小さいものなのですが、それがどんどん積み重なって土台となります。この土台をつくることがプロトソリューションの未来を創ると信じて活動しているので、そういった仲間を増やしていきたいですね。

最後に

今回は私がSaaS営業に携わるようになったストーリーをお伝えしてきました。今後また機会があれば

・なぜSaaS営業なのか

・SaaS営業に必要な営業スキル

・うまくいった/うまくいかなかった営業事例

などなど紹介したいですね。

私たちプロトソリューションでは主体的に考え、動くことができる人、チャレンジ精神あふれる人であれば活躍できるチャンスは大いにあふれていると思っております。私が所属しているIT部門はほとんどがエンジニアなど技術職の方が多いですが、技術やサービスを広く伝える、つまり営業としても活躍できる土壌は十分にあります!私たちと一緒に働くことができる日を楽しみにしています。

最後までお読みいただき、ありがとうございました。

生産人口の減少問題をデータと AI で解決する 株式会社プロトソリューション(沖縄本社:沖縄県宜野湾市、代表取締役社長:白木 享)が発行するクルマ情報誌「グー沖縄版」は、2011年9月創刊から皆さまに支えられて、2021年 9月18日発行号(2021年11月号)で創刊 10 周年を迎えます。
10 周年の感謝を込めて、グー掲載店にて車を購入された方に向けたキャンペーンを行います。

グー沖縄版 創刊10周年キャンペーン概要

・応募期間 : 2021年9月18日(土)~2021年10月18日(月)
・応募の流れ : 販売店に来店し、商談後、車を購入 → 購入の際に販売店より、応募チケットを受け取り → QRコードを読み取り、必要事項を入力して応募
・応募資格・条件 : グーネット・グーネット沖縄、グー誌面を見て、沖縄県内のグー掲載店にてお車をご成約された方が対象。注意事項にご了承いただける方
※ キャンペーン詳細は、グー沖縄版誌面およびグーネット沖縄キャンペーンサイトをご確認ください

創刊10周年に向けた編集長メッセージ

2011年9月の創刊以来、沖縄県内の読者の皆さま、ご掲載をいただいております販売店の皆さま、印刷等に携わっていただいております関係者の皆さま、すべての皆さまのおかげでこの度10周年を迎えることが出来ました。この場を借りて御礼申し上げます。誠にありがとうございます。
これからも沖縄県内の皆さまに愛されるメディアを目指し、1台でも多くの車両情報、1件でも多くのお役に立てる情報をお届けできるよう、スタッフ一同、精一杯取り組んで参りますので、変わらぬご愛顧を賜りますよう、お願い申し上げます。

グー沖縄版 編集長 廣瀬 望

グーネット沖縄・グー沖縄版

沖縄のクルマ情報を網羅しているクルマ情報メディア・クルマ情報誌。
中古車情報や最新のクルマ情報が盛りだくさんの情報誌「グー沖縄版」と、お近くの販売店情報や様々なイベントをリアルタイムで更新しているクルマ情報メディア「グーネット沖縄」でクルマ選びのサポートをいたします。
URL : https://ok.goo-net.com/

株式会社プロトソリューション 会社概要

代表者 : 代表取締役社長 白木 享(しらき とおる)
所在地 : 沖縄県宜野湾市大山 7-10-25
設立 : 2007 年 4 月 3 日
事業内容: デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
URL : https://www.protosolution.co.jp/

<本リリースに関するお問い合わせ先>
株式会社プロトソリューション
[沖縄本社] メディア事業推進室 広報担当:玉城 久子(たまき ひさこ)
Tel: 098-890-2400 Fax:098-890-2404
E-Mail:h-tamaki@protosolution.co.jp

生産人口の減少問題をデータと AI で解決する 株式会社プロトソリューション(沖縄本社:沖縄県宜野湾市、代表取締役社長:白木 享)が運営する 電動アシスト自転車のシェアリングサービス『CYCY(サイサイ)』は、延べ利用者数1万人を見込み、9 月 22 日の「カーフリーデー(*)」に合わせたキャンペーンを実施いたします。

*)カーフリーデーとは、ヨーロッパを中心に、毎年9月22日に「カーフリーデー」という社会イベントが行われています。この日、街の中心部では、マイカーを使う代わりに公共交通機関・徒歩・自転車などによって人々は移動します。また、都市の交通・環境問題に関するシンポジウムや展示会が行われます。市民が交通や環境について考える一日となっているのです。(国土交通省サイトより引用)

■今回の取り組みの背景

2019 年 10 月よりスタートしたシェアサイクル事業『CYCY』は、ICT を活用し、地域に根差したシェアサイクル事業を行うことで、沖縄県民の利便性向上をはかり、交通渋滞緩和、環境への配慮を目指しております。
事業開始から 2 年、公共交通機関の補完としてラストワンマイルを繋ぐモビリティとしての認知と、宜野湾市、那覇市、浦添市をはじめとした行政との協働による市民の足としての利用増加により、延べ利用者数1万人を見込んでお
ります。
この度、9 月 22 日の「カーフリーデー」に合わせて、交通渋滞緩和、環境への配慮、電動アシスト自転車の利便性をお試しいただくことを目的として、CYCY利用者向けキャンペーンを実施いたします。

■キャンペーン概要

・開催期間 : 2021 年 9 月 17 日(金) 0:00 ~ 2021 年 9 月 22 日(水) 23:59
・対象者 : CYCY の自転車を利用された方 (1ID につき1回のみのご参加となります)
・参加方法 : HELLO CYCLING の会員 ID (※会員 ID の確認方法についてを参照)、自
転車の車両番号を CYCY 公式 LINE へお送り頂いた方に、もれなく、”ローソン【お持ち帰り
限定】MACHI café ドリンク(100 円)無料引換券” をプレゼント!!
・配布時期 : キャンペーン期間終了後に順次配布いたします
※詳細情報は、キャンペーン期間中、CYCY 公式 LINE をご確認ください。

■キャンペーン期間限定 ステーション開設情報

2021 年 9 月 17 日(金)~2021 年 9 月 22 日(水)の期間限定で那覇市にステーションを開設いたします。
ビジネス街の中心地にオープンいたしますので、通勤・営業にもご活用いただけます。
・ ステーション設置場所 : タイムスビル(沖縄県那覇市久茂地2丁目2−2)
・ ステーション開設期間 : 2021 年 9 月 17 日(金)9:00~2021 年 9 月 22 日(水)19:00 予定
・ ラック数 : 30 台分

株式会社プロトソリューション 会社概要
代表者 :代表取締役社長 白木 享(しらき とおる)
所在地 :沖縄県宜野湾市大山 7-10-25
設立 :2007 年 4 月 3 日
事業内容:デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
コーポレートサイト:https://www.protosolution.co.jp/

<本リリースに関するお問い合わせ先>
株式会社プロトソリューション
[沖縄本社] メディア事業推進室 広報担当:玉城 久子(たまき ひさこ)

株式会社プロトソリューション(以下、プロトソリューション)と株式会社ユーザベース(以下、ユーザベース)は、多種多様な経済情報の取得・整理を目的としたジョイントベンチャー「株式会社 UB Datatech」を設立し、2021 年 10 月 1日より事業を開始することをお知らせいたします。

■今回の取り組みの背景

プロトソリューションは、「生産人口の減少問題をデータと AI で解決する」ことを目指し、大規模メディアの運営により培ってきた業務プロセス構築の知見を活かした事業運営を行っております。今後も多様化するであろうユーザーのニーズ、その変化のスピードに対応し続けていくためには、他社から取得することが困難な情報など、多種多様な経済情報を取得・整理する必要があります。

今回ともに新しい会社を立ち上げるユーザベースとは、2012 年から大切なパートナーとして良好な関係を構築してまいりました。「経済情報で、世界を変える」というミッションの達成に向けて経済情報プラットフォーム「SPEEDA」、ソーシャル経済メディア「NewsPicks」をはじめとする多くのサービスを提供し、その高いデータ収集力とアウトプット力で、情報を未来の予測のために活用できる形で提供することで多くのビジネスパーソンから支持されています。

他社から取得することが困難な情報をタイムリーに取得・整理するために、ユーザベースの技術力とプロトソリューションのプロセス構築力を掛け合わせることで、各プロダクト・サービスにおけるデータの種類や更新スピードなどの顧客価値を向上させることが可能となります。

■新会社の会社概要

(1)商号:株式会社 UB Datatech
(2)設立日:2021 年 10 月 1 日
(3)本店所在地:沖縄県宜野湾市大山 7-10-14
(4)代表取締役:林 尚之
(5)資本金:60 百万円(資本準備金を含む)
(6)株主:株式会社ユーザベース 66.7%、株式会社プロトソリューション 33.3%
(7)決算期:12 月
(8)事業内容:ユーザベースグループの各プロダクト・サービスで使用する経済情報の取得、整理及び組成

<代表取締役 林 尚之(ユーザベース B2B SaaS Business 執行役員 CTO)よりコメント>
このたび、プロトソリューション社と共同で UB Datatech を設立することができ大変嬉しく思います。より速く、より確な多種多様なデータをユーザベースグループの各ユーザー様に届けるために、私たちの技術力とプロトソリューション社の高いエグゼキューション、コミットメント力を掛け合わせていきたいと考えています。

<取締役 日向野 信吾(プロトソリューション 営業部門 執行役員)よりコメント>
2012 年から長きに渡りビジネスで御一緒させていただいてきたユーザベース社と、このような形で会社を創れることを、大変光栄に思っています。テクノロジーを活用しユーザーライクなデータを組成すべく、双方の強みを最大限活かして、国内屈指のデータジェネレーションカンパニーを作っていきたいと思います。

株式会社ユーザベース / Uzabase,Inc. 会社概要

ユーザベースは、「経済情報で、世界を変える」ことをミッションに掲げ、2008 年に設立しました。「世界中のビジネス情報をテクノロジーと専門家の力で整理し、ビジネスパーソンの生産性を高め、創造性を解放する事で世界に変革を起こしたい」という志をもって、主幹事業である経済情報プラットフォーム「SPEEDA」やソーシャル経済メディア「NewsPicks」を提供しているほか、スタートアップ情報プラットフォーム「INITIAL」や B2B 事業向け顧客戦略プラットフォーム「FORCAS」など全 7 事業 を展開しています。

代表者 :代表取締役 Co-CEO 稲垣 裕介 / 佐久間 衡
所在地 :東京都港区六本木 7-7-7 TRI-SEVEN ROPPONGI 13F
設立 :2008 年 4 月 1 日
証券コード:3966(東証マザーズ)
コーポレートサイト:https://www.uzabase.com/

株式会社プロトソリューション 会社概要

代表者 :代表取締役社長 白木 享(しらき とおる)
所在地 :沖縄県宜野湾市大山 7-10-25
設立 :2007 年 4 月 3 日
事業内容:デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
コーポレートサイト:https://www.protosolution.co.jp/

<本リリースに関するお問い合わせ先>
株式会社プロトソリューション
[沖縄本社] メディア事業推進室 広報担当:玉城 久子(たまき ひさこ)
Tel: 098-890-2400 Fax:098-890-2404
E-Mail:h-tamaki@protosolution.co.jp

皆さん、はじめまして。
プロトソリューション仙台本社の岩間と申します。

今回、プログラマーからSEを経てマネージメントに少しずつ足を踏み入れてきた私のエンジニア人生をご紹介させて頂ければと思います。
最後までご覧いただけましたら幸いでございます。

自己紹介

幼少期から周囲に機械や工具が豊富にある環境で育ち、モノづくりに興味を持ち、工業高校で機械工学を専攻。
実習の中にBASIC言語を用いた旋盤(金属から部品を削り出す切削加工)実習があり、そこで、プログラミングに触れた事で興味・関心が強くなりITエンジニアになることを決意。
情報系の大学を経て、2007年株式会社アイソリューションズに入社。

これまでのエンジニア人生

私のエンジニア人生は入社前研修時から始まりました。
任意参加制で、あるシステム開発の一部を担当させて頂ける機会が提供されていたため迷わず食いつきました。
まだ入社していないですが、会社にかかってきた電話にも出る機会があり、先輩方から、彼もう電話も受けてるし(笑)って温かい眼差しで見守ってもらった記憶がとても印象的です。
同期に結構デキる人がいたので、負けたくないという気持ちや自分の力を蓄えたいという気持ちがあったので、入社前であってもそんな機会を提供してくれる会社にとてもマッチしてるなと感じたエピソードでした。

その後入社してすぐは、がむしゃらに色んな事に取り組ませてもらいました。
同じ案件を長く続けると経験できる事にムラが出てしまうと思ったので、短期的に案件を変えながら、
学びながら仕事することができたのも、意見を聞いてくれる会社があったからこそだと思います。
そんなとき、客先常駐の案件の話があり、経験を増やすために常駐を選択したのですが、その常駐先で、エンジニア人生における2つのターニングポイントがありました。

良き反面教師との出会い

仕様は俺だ!横暴なリーダーが進めるプロジェクトへの参画

まだエンジニアとして若く、エンジニア像というものを明白に持っていなかった頃のお話。
そのプロジェクトはリーダー配下に他社エンジニア5名、弊社エンジニア2名、半年くらいの規模の案件でした。
とある基幹システムの改修要件だったのですが、そこのリーダーが曲者でタイトルの通り、仕様は俺の頭にある。俺の言う通りにやれ。という独裁者。
そのくせ、毎日出勤時間は遅く、いつも赤ら顔で前日どんだけ飲んでたんだ?って感じの人でした。
ただ、当時の私は”仕様は俺だ”と自信満々に振る舞うリーダーを見て、「おおぉ、すげーな。こんなこと言ってみたい」と憧れのようなものを感じるペーペーでした(笑)
結局はチームから不満続出で異動となり、常駐先から謝罪を受け、その後は新体制のもと完遂。
チームをゴールに導くために必要な事、ナレッジを整理/共有することの大事さを教わるいい機会となりました。
(こんなプロジェクト中々無いので、良い反面教師に出会えて良かった)

地方・首都圏なんて変わらないと実感

大手有名IT企業におけるリーダー経験

そこは当時はまだ今ほどの大きさになっていない発展途上の常駐先でした。
プロパーが少ないためパートナーエンジニアを探しており、こんな有名企業だからこそ得られるものがあると思い参画。
面接の終わりに「うちはパートナーとかプロパーとか線引して仕事する人は要らないです。それでもやってくれますか?」と問われ、驚きました。
そもそも、良いものを届けるという思いで仕事していたので、線引はありませんでしたが、今までの常駐先では当然パートナーとプロパーには大きな壁があるのは痛感していたので、逆に火が付き、「プロパーと遜色ない成果を出しますので、やらせてください」と胸を張って返答しました。
大手だからこその多種多様なルールがあったり、仕事の進め方も独自性があったため、正直、失敗の連続でしたので、言葉の通りやれてなかったと思いますが、チームリーダーを任せてもらったのは、頑張った成果を認められた結果かなと振り返っています。
良いものを作り出すために妥協せず取り組んだ姿勢が良かったのかな。
そんな時、プロパーと一緒に東京本社に出向く機会を頂き、同席しました。
今まで東京に出張することは何度かありましたが、先輩の同伴程度で、議事録係&日帰りだったので、東京のエンジニアと話をする機会なんてありませんでしたが、こんな大手のIT企業で、かつ数日の出張。
これはどんな人と会えるのかワクワク!という感情で東京入りしました。
それを終えての感想。
東京=すごい人がいる。すごい事がやれる。
この考えが変わりました。

当然、人は多いし、情報も多いし、すごいなって人とも出会いました。
でも、母数が違うだけで比率変わらないじゃん。というのが私の感想でした。
その時、首都圏と地方では地方の方がレベル低い。という概念が完全に吹き飛んで、全然やれんじゃん。同じようなエンジニアなのになんでこんなに待遇違うの?という思いが強くなりました。

この2つの機会から自分のエンジニア像が形成されていったと思います。

  • チームで成果を上げる
  • 良いものを提供するために妥協(契約形態や勤務地)は不要

そんな経験を積んでいた最中、2016年10月株式会社アイソリューションズは株式会社プロトデータセンターと合併し、株式会社プロトソリューションとして生まれ変わりました。
当時の気持ちとしては、合併後、今までのようにやりたいことをやらせてもらえるチャンスが引き続きあるのか、エンジニアとして今後成長する機会が減ることはないか、という不安と、新しい会社になってイチから会社を再構築できるのでは、という期待感が入り混じっていました。

私は合併時はまだ常駐先で仕事をしていたのですが、現在の仙台開発責任者、進藤から戻ってきてほしいと言われ戻る事にしました。
それから社内に戻り、自社内にてプロトグループの大規模サービス案件や新規案件、新規サービス開発など、多岐にわたり携わる事ができたのですが、その中で先の不安は完全になくなりましたね。

アイソリューションズ時代もチャンスを掴み取る機会は十分あったのですが、チャンスの幅がより広くなった印象です。

  • 中々経験しようと思っても出来ない大規模なサービスを支える機会
  • お客様の要望するものをどういったテクノロジー/アーキテクチャで実現するか手腕が問われる機会
  • 自分たちで0からサービスを作りたいという思いを叶えられる機会

合併前では企業規模も小さく出来なかった範囲が、合併したことで機会を提供してもらえる良い環境になりました。

代表プロジェクト 開発時期 開発規模 使用アーキテクチャ
新規開発:自動車関連SNS 2019/07~2020/03 51人月 PHP、Angular、TypeScript、Aurora、PWA
新規サービス開発:JomoNex 2020/07~2021/08 33人月 golang、React、Aurora
研究開発:画像認識技術による判定 2020/07~ 8.5人月 Python、PyTorch、Detectron2
新規サービス開発:ラクネコ 2019/04~2020/02 80人月 Swift、Kotlin、Angular、TypeScript、DynamoDB

現在、私はAIテクノロジー推進室のシステム開発Section統括のポジションにいます。
こういったポジションに携われるのも、会社から与えられるチャンスに対して自分のとりあえずやってみる、なんでもやってみるという精神と苦難はありながらもそれに立ち向かっていくポジティブな考え方が認められた結果なのかなと思っています。

年間授賞式にて、特別賞を頂きました!

これからのエンジニア人生

今、私は現場主体のエンジニアからマネージメントの道に進む、大きな転換期の真っ只中にいます。
マネージメントはシステムのようにシンプルではなく、人と人との対話/関係性を築くとても難しいものだと痛感しています。
しかしながら、自分のエンジニア人生の中で今まで経験してきた事を軸に形成してきたエンジニア像を
後世に伝え、組織力を高める事のできる素晴らしい職務だと思います。
チームを纏めることの大事さ/大変さ、お客様へ良いものを届けるために妥協は不要。
これをこれからの若い人達に伝えると同時に、機会とチャンスを用意し、活躍する場を提供する。
そんなマネージャに成長できるよう邁進しているところです。

そして私には夢があります。
これまでのエンジニア経験の中で感じた、地方というマイナスイメージの払拭です。
昔と違い、テクノロジーの進歩で、どこでも仕事が出来る時代です。
そんな中、昔は首都圏だからこそ出来るという仕事も、今や場所は問われないですし、なにより地方にも優秀な人材は多いと考えています。先述したように母数が違うだけです。
それなのに地方だから、やりたいことができない、待遇が悪いというのは納得できません。 

おわりに

私のエンジニア人生が中心となる内容になりましたが、この会社にはやりたいという思いを叶え、評価されるよい風土が形成されています。
地方とか首都圏とか関係なく、ここには成長できる土台があります。
これからの日本には地方の力こそ、必要なものだと思います。
思い入れのある場所から世の中によい価値を提供する。
この思いに賛同頂ける方、エンジニアとして技術を追求していきたい方、マネージャーとして管理職へ挑戦したい方、今後のキャリアをどうしようかとお考えの方、ぜひお声がけください。
やる気さえあれば、チャレンジできるフィールドで私達と一緒にさらなる成長を遂げましょう。
プロトソリューションで共に働ける事を楽しみにしています。

最後までお読みいただきありがとうございました。

ITエンジニア

ITエンジニア

仙台本社では、一緒に働くITエンジニアを募集しています

自社プロダクト(SaaS)開発エンジニア、システムエンジニア、その他多数募集中!

はじめに

多くのブログ記事やチュートリアルは、機械学習や深層学習モデルのトレーニングに焦点を当てています。しかし、これらのモデルをWebサイトや他のシステムから簡単に利用できるように作成し、デプロイする方法については、あまり多くの情報がありません。

この記事では、これらのモデルのWeb APIを作成するためのアプローチと、AWSへのデプロイメントについて説明します。

この記事ではTensorFlow 2に焦点を当てていますが、いくつかの変更を加えることで、コードはPyTorchLightGBMなどの他のフレームワークにも対応できます。

自己紹介

私はアダムと申します。PROTO SolutionのAIテクノロジー推進室で機械学習/深層学習のシステムやプロトタイプを開発しております。

主な仕事は、TensorFlowを使った深層学習モデルの開発と、それらを使ってAmazon Web Services (AWS)にデプロイできるAPIやバッチアプリケーションの開発です。

アプローチ

機械学習モデルをデプロイするためにいくつかAWSサービスが使えます。例えば、

これらのサービスはそれぞれ料金、複雑さ、機能が異なります。

この記事では、AWS LambdaAWS Elastic Beanstalkへのデプロイに焦点を当てます。理由は、この二つのサービスが一番使いやすいですし、私のプロトタイプやアプリケーションはこれらでデプロイすることが多いです。

今後のブログでは、他のサービスについても記事を書いていきたいと思います。

API

API(Application Programming Interface)とは、ユーザーや他のシステムが、アプリケーションの内部を知らなくても、そのアプリケーションと使用できる方法を示すものです。

Web APIは、HTTPやその他のプロトコルを使用して、アプリケーションの機能をインターネット上で提供し利用することを可能にします。

この記事では、FastAPI フレームワークを使用してWeb APIを作成し、DockerおよびAWSサービスを利用してデプロイします。

ImageNetというデータセットに学習されたTensorFlowのMobileNetV2 モデルを例として使用します。

FastAPI

FastAPI は、PythonでWeb APIを構築するためのフレームワークです。

Flaskとその他のフレームワークも非常に人気がありますが、FastAPIはこれらのフレームワークに比べて、いくつかの利点と特徴があると思います。例えば、

  • ・モダンで非常に高速処理
  • ・コードの重複を最小限にしていますので、APIのソースコードが短い
  • Pydanticによるデータのシリアル化と検証が組み込まれています。
  • ・自動的にOpen APIドキュメント(仕様書)生成

Docker

Dockerは、アプリケーションをデプロイするための決定的な方法となっています。

Dockerで、アプリケーションと、オペレーティングシステムを含むすべての依存関係を、Dockerイメージと呼ばれるものにパッケージ化できます。

これらのイメージは、Dockerエンジンをサポートするさまざまなプラットフォームで実行できます。

Dockerエンジンで実行されるイメージは、コンテナと言います。

Dockerには、コンテナとイメージを管理するためのさまざまなコマンドがありますが、この記事では、buildrunコマンドのみを使用します。

チュートリアル

このセクションでは、APIの各部分を紹介し、説明します。

依存関係のインストール

最初のステップは、Pythonの分離されたコピーである新しい仮想環境を作成することです。

この記事では、Condaを使って新しいPython 3.7の仮想環境を作成し、それに切り替えます。

conda create -n ApiDeployment python=3.7
conda activate ApiDeployment

次に、requirements.txtに記載されている依存関係を仮想環境にインストールします。

pip install -r requirements.txt

必要な依存関係のパッケージを少し見てみましょう。

Pillow==8.2.0
tensorflow==2.4.2
numpy==1.19.5
fastapi==0.65.2
pydantic==1.8.2
aiohttp==3.7.3
uvloop==0.14.0
uvicorn[standard]==0.14.0
gunicorn==20.1.0
aiofiles==0.7.0
mangum==0.12.2

パッケージのインポートとロギング

まずは始めに、APIが使用するライブラリのインポートです。

これらのライブラリの使い方については、コードを読み進めながら説明します。

import argparse
import base64
import io
import os
import logging
import sys

from tensorflow.keras.applications.mobilenet_v2 import MobileNetV2, preprocess_input, decode_predictions

from urllib.parse import urlparse

from aiohttp.client import ClientSession
from asyncio import wait_for, gather, Semaphore

from typing import Optional, List

from fastapi import FastAPI, Request
from fastapi.responses import JSONResponse

from pydantic import BaseModel, validator

import numpy as np

from PIL import Image

from mangum import Mangum

APIは環境変数を使って設定されますが、これらはコマンドラインで簡単にDockerに渡すことができます。

THREAD_COUNT = int(os.environ.get('THREAD_COUNT', 5))
"""The number of threads used to download and process image content."""

BATCH_SIZE = int(os.environ.get('BATCH_SIZE', 4))
"""The number of images to process in a batch."""

TIMEOUT = int(os.environ.get('TIMEOUT', 30))
"""The timeout to use when downloading files."""

また、メッセージをログに書き込むためのロギングオブジェクトも作ります。

logger = logging.getLogger(__name__)

データのモデル

次に、Pydantic というパッケージを使って、APIへのインターフェースを定義し、データ構造を作成します。

データ構造を作成するための詳しいチュートリアルはこちらをご覧ください。

class HealthCheck(BaseModel):
   """
  Represents an image to be predicted.
  """
   message: Optional[str] = 'OK'


class ImageInput(BaseModel):
   """
  Represents an image to be predicted.
  """
   url: Optional[str] = None
   data: Optional[str] = None


class ImageOutput(BaseModel):
   """
  Represents the result of a prediction
  """
   score: Optional[float] = 0.0
   category: Optional[str] = None
   name: Optional[str] = None

   @validator('score')
   def result_check(cls, v):
       return round(v, 4)


class PredictRequest(BaseModel):
   """
  Represents a request to process
  """
   images: List[ImageInput] = []


class PredictResponse(BaseModel):
   """
  Represents a request to process
  """
   images: List[ImageOutput] = []

PredictRequestオブジェクトは、APIに渡されるデータ、つまり処理したい画像を表しています。

PredictRequestオブジェクトは、予測結果がAPIの呼び出し元にどのように返されるかを定義します。

これらの構造を定義することで、画像のURLやBase64エンコードされた画像データを含むJSONリクエストを自動的にデシリアライズし、妥当性を検査することができます。

サンプルなリクエスト

{
 "images": [
  {
     "url": "https://localhost/test.jpg"
  }
]
}

また、各画像のImageNetカテゴリー予測値、信頼度スコアを含むJSONレスポンスをシリアライズすることもできます。例えば、

サンプルなレスポンス

{
   "images": [
      {
           "score": 0.508,
           "category": "n03770679",
           "name": "minivan"
      }
  ]
}

FastAPI アプリケーション

次のステップでは、FastAPIのアプリケーションのオブジェクトを作ります。これにより、次のステップでいくつかのアノテーションを使用できるようになります。

app = FastAPI()

例外処理

以下の例外ハンドラは、処理中にエラーが発生した場合に、呼び出し元に返されるエラーメッセージを生成するために使用されます。

class ImageNotDownloadedException(Exception):
   pass


@app.exception_handler(Exception)
async def unknown_exception_handler(request: Request, exc: Exception):
   """
  Catch-all for all other errors.
  """
   return JSONResponse(status_code=500, content={'message': 'Internal error.'})


@app.exception_handler(ImageNotDownloadedException)
async def client_exception_handler(request: Request, exc: ImageNotDownloadedException):
   """
  Called when the image could not be downloaded.
  """
   return JSONResponse(status_code=400, content={'message': 'One or more images could not be downloaded.'})

Image Classifier

このクラスには,学習されたMobileNetV2モデルが利用されています。

predictという関数を呼び出すことで、画像のリストに対するImageNetカテゴリを予測することができます。

画像は前処理され、モデルの入力に合わせてリサイズされます(224ピクセル×224ピクセル)。

class ImageClassifier:
   """
  Classifies images according to ImageNet categories.
  """
   def __init__(self):
       """
      Prepares the model used by the application for use.
      """
       self.model = MobileNetV2()
       _, height, width, channels = self.model.input_shape
       self.input_width = width
       self.input_height = height
       self.input_channels = channels

   def _prepare_images(self, images):
       """
      Prepares the images for prediction.

      :param images: The list of images to prepare for prediction in Pillow Image format.

      :return: A list of processed images.
      """
       batch = np.zeros((len(images), self.input_height, self.input_width, self.input_channels), dtype=np.float32)
       for i, image in enumerate(images):
           x = image.resize((self.input_width, self.input_height), Image.BILINEAR)
           batch[i, :] = np.array(x, dtype=np.float32)
       batch = preprocess_input(batch)
       return batch

   def predict(self, images, batch_size):
       """
      Predicts the category of each image.

      :param images: A list of images to classify.
      :param batch_size: The number of images to process at once.

      :return: A list containing the predicted category and confidence score for each image.
      """
       batch = self._prepare_images(images)
       scores = self.model.predict(batch, batch_size)
       results = decode_predictions(scores, top=1)
       return results

ロギングの設定

次に、アプリケーションのログを設定するための関数を作成します。

すべてのログのメッセージは stdout に出力されます。これにより、AWS LambdaやElastic Beanstalkは簡単にメッセージを記録できるようになります。

def configure_logging(logging_level=logging.INFO):
   """
  Configures logging for the application.
  """
   root = logging.getLogger()
   root.handlers.clear()
   stream_handler = logging.StreamHandler(stream=sys.stdout)
   formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
   stream_handler.setFormatter(formatter)
   root.setLevel(logging_level)
   root.addHandler(stream_handler)

モデルのロード

このステップでは,アプリケーションの起動時に、ImageClassifierオブジェクトを生成してロードします。

また、前のセクションで定義した関数を使って、アプリケーションのログを設定します。

@app.on_event('startup')
def load_model():
   """
  Loads the model prior to the first request.
  """
   configure_logging()
   logger.info('Loading model...')
   app.state.model = ImageClassifier()

ここでは、appstateImageClassifier オブジェクトを格納しますが,代わりにグローバル変数としてモデルを格納することも可能です。

画像処理

このセクションでは、URLから画像をダウンロードしたり、リクエストメッセージに格納されている Base64 画像データをデコードしたりするためのいくつかの関数を定義します。

ダウンロードするためにaiohttpというパッケージが使われています。画像のデータはPillowの形式に変換しています。

def get_url_scheme(url, default_scheme='unknown'):
   """
  Returns the scheme of the specified URL or 'unknown' if it could not be determined.
  """
   result = urlparse(url, scheme=default_scheme)
   return result.scheme


async def retrieve_content(entry, sess, sem):
   """
  Retrieves the image content for the specified entry.
  """
   raw_data = None
   if entry.data is not None:
       raw_data = base64.b64decode(entry.data)
   elif entry.url is not None:
       source_uri = entry.url
       scheme = get_url_scheme(source_uri)
       if scheme in ('http', 'https'):
           raw_data = await download(source_uri, sess, sem)
       else:
           raise ValueError('Invalid scheme: %s' % scheme)
   if raw_data is not None:
       image = Image.open(io.BytesIO(raw_data))
       image = image.convert('RGB')
       return image
   return None


async def retrieve_images(entries):
   """
  Retrieves the images for processing.

  :param entries: The entries to process.

  :return: The retrieved data.
  """
   tasks = list()
   sem = Semaphore(THREAD_COUNT)
   async with ClientSession() as sess:
       for entry in entries:
           tasks.append(
               wait_for(
                   retrieve_content(entry, sess, sem),
                   timeout=TIMEOUT,
              )
          )
       return await gather(*tasks)


async def download(url, sess, sem):
   """
  Downloads an image from the specified URL.

  :param url: The URL to download the image from.
  :param sess: The session to use to retrieve the data.
  :param sem: Used to limit concurrency.

  :return: The file's data.
  """
   async with sem, sess.get(url) as res:
       logger.info('Downloading %s' % url)
       content = await res.read()
       logger.info('Finished downloading %s' % url)
   if res.status != 200:
       raise ImageNotDownloadedException('Could not download image.')
   return content

画像の予測

最後の2つのメソッドは,上記のコードをすべて結びつけるものです。

predict_imagesは,Pillow形式の画像のリストに対してImageNetのカテゴリを予測し、その結果をImageOutputオブジェクトのリストとして返します。

process関数は、URLのリストから画像をダウンロードして処理し、レスポンスを返します。

app.postのアノテーションは、HTTP POSTによる関数を呼び出すことでき、関数のリクエストとレスポンスの構造がそれぞれPredictRequestPredictResponseによって定義されることを示しています。

def predict_images(images):
   """
  Predicts the image's category and transforms the results into the output format.

  :param images: The Pillow Images to predict.

  :return: The prediction results.
  """
   response = list()
   results = app.state.model.predict(images, BATCH_SIZE)
   for top_n in results:
       category, name, score = top_n[0]
       response.append(ImageOutput(category=category, name=name, score=score))
   return response


@app.post('/v1/predict', response_model=PredictResponse)
async def process(req: PredictRequest):
   """
  Predicts the category of the images contained in the request.

  :param req: The request object containing the image data to predict.

  :return: The prediction results.
  """
   logger.info('Processing request.')
   logger.debug(req.json())
   logger.info('Downloading images.')
   images = await retrieve_images(req.images)
   logger.info('Performing prediction.')
   results = predict_images(images)
   logger.info('Transaction complete.')
   return PredictResponse(images=results)

健全性のチェック

また、ロードバランサーがアプリケーションの健全性をチェックするためにHTTP GETによる呼び出すことができる関数も提供しています。

@app.get('/health')
def test():
   """
  Can be called by load balancers as a health check.
  """
   return HealthCheck()

Handler (Lambdaに必須)

LambdaFastAPIを使用するためには、FastAPIappオブジェクトをMangumでラップする必要があります。

handler = Mangum(app)

注:アプリケーションをローカルまたはAWS Elastic Beanstalkにデプロイする場合、このハンドラは使用されません。

APIサーバーの実行 (ローカル環境)

最後に、コマンドラインからAPIを実行できるように、組み込みのuvicornサーバーを追加します。

if __name__ == '__main__':

   import uvicorn

   parser = argparse.ArgumentParser(description='Runs the API locally.')
   parser.add_argument('--port',
                       help='The port to listen for requests on.',
                       type=int,
                       default=8080)
   args = parser.parse_args()
   configure_logging()
   uvicorn.run(app, host='0.0.0.0', port=args.port)

以下のコマンドを実行することで、APIをローカルに実行することができます。

python main.py

Lambdaのデプロイメント

LambdaへのAPIのデプロイはいくつかのメリットがあります。

  • サーバーやインフラの管理が不要です。
  • 一時的な大量のトラフィックを対応するために、APIインスタンスの数を容易に拡張できます。

しかし、いくつかデメリットと制限もあり、特に以下の点が挙げられます。

  • しばらくLambdaが呼ばれないときに、コンテナが起動時間が発生し、リクエスト処理の遅延が発生します。
  • パフォーマンスを向上させるために調整できるのは、メモリ(および比例するCPU量)のみです。
  • API GatewayからLambdaを呼び出す場合、タイムアウトは29秒に制限されます。
  • Dockerイメージの容量は10GBに制限されています。
  • 使用料金は、リクエスト数と処理時間の両方に基づいて設定されるため、長時間の処理を大量に実行する場合には割高になる可能性があります。
  • ローカルストレージを必要とするアプリケーションには適していません。Lambdaは/tmpディレクトリに512MBの追加ストレージしか提供しません。

Dockerイメージのビルド

AWSでは、Lambdaがサポートするプログラミング言語のベースイメージが多数用意されています。

この記事では、Python 3.7のベースイメージを使用します。

注:ハンドラの名前は、ソースコードで定義されているMangumハンドラの名前と一致していることが必要です

FROM public.ecr.aws/lambda/python:3.7

# Copy function code
COPY main.py ${LAMBDA_TASK_ROOT}/app.py

# Install the function's dependencies using file requirements.txt

COPY requirements.txt .
RUN pip3 install --no-cache-dir -r requirements.txt --target "${LAMBDA_TASK_ROOT}"

# Set the CMD to your handler (could also be done as a parameter override outside of the Dockerfile)
CMD [ "app.handler" ]

次に、docker buildコマンドを使ってLambdaイメージをビルドし、タグ付けします。

docker build -t imagenet-lambda -f Dockerfile.lambda .

コマンドが完了すると、以下のような出力が表示されます:

Step 5/5 : CMD [ "app.handler" ]
---> Running in 2257d01b05b0
Removing intermediate container 2257d01b05b0
---> 14755a1c4440
Successfully built 14755a1c4440
Successfully tagged imagenet-lambda:latest

イメージをLambdaで使用する前に、AWS Elastic Container Registry (ECR)にアップロードする必要もあります。

まず、AWS ECRコンソールに移動し、新しいリポジトリを作成します。

次に、先ほど作成したプライベートECRリポジトリにログインし、<Region Name><Account ID>のプレースホルダーをECRリポジトリのリージョンとAWSアカウントのアカウント番号に書き換え、以下のコマンドを実行します。

aws ecr get-login-password --region <Region Name> | docker login --username AWS --password-stdin <Account ID>.dkr.ecr.<Region Name>.amazonaws.com

注:上記のコマンドを実行するには、awscliパッケージがインストールされている必要があります。インストール方法はこちらをご覧ください。

最後に、イメージにタグを付けて、ECRにプッシュ(アップロード)します。

docker tag imagenet-lambda:latest <AccountID>.dkr.ecr.<Region>.amazonaws.com/<RepositoryName>:latest
docker push <AccountID>.dkr.ecr.<Region>.amazonaws.com/<RepositoryName>:latest

CloudFormation

Dockerイメージの作成が完了したら、APIをデプロイするLambda関数を作成します。このLambda関数を簡単に作成するために、CloudFormationテンプレートを用意しました。

テンプレートを実行するには、以下の手順を行います。

  1. 1. CloudFormationのコンソールを開きます 。
  2. 2. 利用したいリージョンを選択します。
  3. 3. Create Stack → With new resources (standard) 「スタックの作成 (新しいリソース)」を選択します。
  4. 4. テンプレートファイルのアップロードを選択します。
  5. 5. deploy/lambda.yamlのパスを入力します。(Next)「次へ」をクリックします。
  6. 6. テンプレートに必要なパラメータを入力します。
    •  Stack Name. 今から作成するスタックの名前です。例:「ImageNetTest」。
    •  ImageUri<Account ID>.dkr.ecr.<Region>.amazonaws.com/<Repository Name>:latestというフォーマットで、前のステップでアップロードしたDockerイメージのURI。
  7. 7. (Next) 「次へ」をクリックします。
  8. 8. 画面下部のチェックボックスをすべてチェックします。
  9. 9. (Create Stack)「スタック作成」をクリックします。

これでAPIがデプロイされ、すべてのAWSリソースが準備完了したら、API GatewayのURLを呼び出すことで、APIのLambdaを起動することができます。

Elastic Beanstalkのデプロイメント

APIは、Elastic Beanstalk上にもデプロイすることができ、Elastic Beanstalkの使用には以下いくつかメリットがあります。

  • ・より柔軟な設定が可能です。例えば、GPUインスタンスを含む様々なインスタンスタイプを選択できます。
  • ・しばらくAPIを呼び出さない場合、コンテナの起動時間は発生しません。
  • ・使用料金は、リクエストごとではなく、インスタンスが稼働している時間に応じて決まります。APIによってはこの方が安いかもしれません。

しかし、Elastic Beanstalkにはいくつかのデメリットもあります。

  • ・Lambdaに比べてインスタンスの起動とスケーリングが遅くなります。
  • ・インスタンスがアイドル状態でも料金が発生します。
  • ・Lambdaより設定に調整できる項目が増えますが、使い方も複雑になります。

Docker イメージのビルド

Lambdaと同様に、Dockerイメージを作成するためにDockerfileを作りますが、ファイルの内容は少し違います。

Mangumのハンドラを呼び出すのではなく、コンテナにあるuvicorngunicornサーバー上にAPIをデプロイします。

イメージの作成を楽にするために、uvicorn-gunicorn-docker templateを再利用します。

Elastic Beanstalk向けたDockerイメージを構築するために、以下のコマンドを実行します。

docker build -t imagenet-eb -f Dockerfile  .

ビルドが完了すると、以下のような出力が表示されます。

Removing intermediate container 91a51bb166d4
---> 0bb1a7031a5e
Successfully built 0bb1a7031a5e
Successfully tagged imagenet-eb:latest

イメージをElastic Beanstalkで使用する前に、AWS Elastic Container Registry (ECR)にアップロードする必要もあります。

まず、AWS ECRコンソールに移動し、新しいリポジトリを作成します。

次に、先ほど作成したプライベートECRリポジトリにログインし、<Region Name><Account ID>のプレースホルダーをECRリポジトリのリージョンとAWSアカウントのアカウント番号に書き換え、以下のコマンドを実行します。

docker tag imagenet-eb:latest <Account ID>.dkr.ecr.<Region>.amazonaws.com/<Repository Name>:latest
docker push <Account ID>.dkr.ecr.<Region>.amazonaws.com/<Repository Name>:latest

CloudFormation

Dockerイメージの作成が完了したら、APIをデプロイするElastic Beanstalkの環境を作成します。この環境を簡単に作成するために、CloudFormationテンプレートを用意しました。

テンプレートを実行するには、以下の手順を行います。

  1. 1. CloudFormationのコンソールを開きます 。
  2. 2. 利用したいリージョンを選択します。
  3. 3. Create Stack With new resources (standard) 「スタックの作成 (新しいリソース)」を選択します。
  4. 4. テンプレートファイルのアップロードを選択します。
  5. 5. deploy/elastic-beanstalk.yamlのパスを入力します。(Next)「次へ」をクリックします。
  6. 6. テンプレートに必要なパラメータを入力します。
    • Stack Name. 今から作成するスタックの名前です。例:「ImageNetTest」。
    • InstanceType。使用するインスタンスの種類です。
  7. 7. (Next) 「次へ」をクリックします。
  8. 8. 画面下部のチェックボックスをすべてチェックします。
  9. 9. (Create Stack)「スタック作成」をクリックします。

APIのデプロイメント

CloudFormationでElastic Beanstalkの環境の作成が完了したら、そこにAPIをデプロイします。

Elastic Beanstalkには、アプリケーションをデプロイするための2つの方法が用意されています。

  1. 1. Zipファイルをアップロードします。APIのファイルを含むZipファイルをアップロードします。デプロイに必要なDockerrun.aws.jsonというファイルにホストとDocker間のポートマッピングを定義している必要がありますが、DockerイメージのURIを指定する必要はありません。zipファイル内にDockerfileが存在する場合、APIコンテナはECRにアップロードする必要がなく、Elastic Beanstalkのインスタンスにビルドされます。
  2. 2. Dockerrun.aws.jsonのみをアップロードします。このファイルには、ホストとDocker間のDockerイメージのパスとポートのマッピングも記載されていますが、上と異なり、DockerイメージのURIを指定する必要があります。

今回は、アプローチ2番で進めます。

以下のようにDockerrun.aws.jsonという新しいファイルを作成します。

{
 "AWSEBDockerrunVersion": "1",
 "Image": {
   "Name": "<Account ID>.dkr.ecr.<Region>.amazonaws.com/<Repository Name>:latest"
},
 "Ports": [
  {
     "ContainerPort": "80"
  }
]
}

Image Nameの部分を、先にアップロードしたイメージのURIに書き換えます。

Elastic Beanstalkのコンソールに移動し、(Upload and deploy) 「アップロードとデプロイ」ボタンを使ってDockerrun.aws.jsonのファイルをアップロードします。

しばらく待つとデプロイは完了します。

最後に

この記事では、FastAPIによるTensorFlowモデルを活用するAPIを作成するアプローチを説明しました。

また、同じコードを使ってAPIを2つの異なるAWSサービスにデプロイしました。

機械学習のデプロイにどのAWSサービスを使用するかを選択するのは時に難しいことですが、まずAWS Lambdaを試してみることをお勧めします。他のサービスに比べて、Lambdaは使いやすくてスケーラビリティが高いです。

より高速な推論のためにGPUを必要とする場合や、その他の要件でAWS Lambdaが適さない場合は、代わりにAWS Elastic Beanstalkをお勧めします。

ソースファイル

ソースファイルを GitHub に公開しました。

・main.py – APIのソースコード
・Dockerfile – Elastic Beanstalkのデプロイに向けたDockerfile
・Dockerfile.lambda – Lambdaのデプロイに向けたDockerfile
・Dockerrun.aws.json – Elastic Beanstalkのデプロイに向けたコンテナ設定ファイル
・requirements.txt – APIの依存関係が書かれているファイル
・deploy/elastic-beanstalk.yaml – Elastic Beanstalkのデプロイに向けたCloudFormationのテンプレート
・deploy/lambda.yaml – Lambdaのデプロイに向けたCloudFormationのテンプレート

最後までお読みいただき、ありがとうございました。

AIエンジニア

AIエンジニア

沖縄本社では、一緒に働くAIエンジニアを募集しています

その他、システムエンジニア、iOS/Androidアプリエンジニア、多数募集中!

はじめに

はじめまして。プロトソリューション・オフショア開発の三亀です。
ベトナム・ハノイでIT開発チームの現地マネージャーとして奮闘しております。
今回は私のストーリーをご紹介いたします。

入社までの略歴

高校までは千葉にいました。その後、北海道大学に入学し、札幌で4年間を過ごしました。経済学部だったのですが、いわゆる「とりあえず文系で潰しがきく学部に入っとけ」精神だったので、卒業間際になって進路について迷走しました。

順当にいけば金融関係なんでしょうけど、「自分が何に向いてるかな」と考え直した結果、昔から物を作ったりするのが好きだったのと、当時盛り上がってきてたという理由でITを選びました。

実は大学3年から統計学のゼミにも入ってたので、そこでコンピューターに触れたというのも一つのきっかけだったと思います。

「手に職つけられて、将来性もある」と思って選んだつもりが、当時は周囲からの反対も多かったです。同期のメンバーは「東証一部の会社に総合職で入社」みたいなパターンが多かったので、完全に偏見だと思うのですが、なんでわざわざSE?みたいな雰囲気はありました。さらに、当時は「SEは3K」みたいな言われ方をしてたので仕方ないかと思いますが、この職業を選んだことに悔いはないですね。ちなみに、3Kとは「きつい、厳しい、帰れない」のことです。

その後、500名くらいの中規模SIerを2社ほど経験しました。この期間が10年くらいで、自分的には技術の下積み時代だと思ってます。そのうち自社プロダクトを開発している会社に憧れを抱くようになり、某インターネットメディア企業(以下A社)に転職しました。 A社には技術や開発に対する知見があるエンジニアが多かったので、日々刺激を受けながら仕事をすることができました。また、なにより、「ITをどうやってビジネスに結びつけるか」ということを、創業20年も続いているA社で見てきたことはキャリアの大きな糧になっています。

A社では主に開発チームのプレーイングマネージャーとして、約10年間、次のようなことをやっていました。「各種レガシーシステムの刷新」「マイクロサービス化」「不採算サービスの断捨離」「オフショア開発推進」

この中の「オフショア開発推進」が現在の仕事にもつながってきます。「IT需要に対して、年々エンジニア不足していく」という日本が抱える課題に対して取り組めば、仕事のチャンスも増えるだろうと考えています。

プロトソリューションに入社

プロトソリューション入社の経緯はちょっと変わってます。A社時代に出張で何度かハノイに来てたのですが、その際、プロトソリューションの現地駐在員の方々と仲良くなりました。その頃ちょうどその方が退職を考えていて、ハノイ拠点長の後任を探していたというのが経緯になります。

いろいろ会社の状況を聞いて、ビジネス面で伸びていて仕事量は豊富だし、やり方によってはオフショア開発を拡大して、事業に貢献する余地がまだまだあるなあ、と興味を持ちました。あと、最終的には、取締役がわざわざハノイにまで会いに来てくれて、その心意気にも決断を促されました。

入社してから約半年は東京支社に勤務していました。ハノイ駐在が入社の前提だったのですが、コロナ・パンデミックが始まりしばらく渡航できませんでした。でも、これによって、東京支社のメンバーと交流する時間も増えましたし、現場の課題を肌で感じることができたので、結果的に有意義な期間だったと思っています。

そして、昨年12月に2週間の隔離を経て、無事ハノイへ渡航しました。

今やっていること

僕はオフショア開発専任ですが、ベトナム側だけに目を向け改善していっても、それは部分最適にしかなりません。「仕事を出す日本側」と「仕事を受けるベトナム側」がいい感じに協調していかないと効果を最大化できないのは明白です。(最終的には「日本とベトナムは1チーム」という雰囲気を醸成したいのですが、それも段階的にやっていこうと思ってます)

・日本側

プロトソリューションに入ってまだ1年ちょっとですが、感想として「ビジネス、案件、仕事の量は多い」「現場のエンジニアが非常にまじめ」というのがまずありました。良い要素は揃ってるので、さらに開発フローなどの効率化を進めることでまだまだ伸び代があると考えています。例えば、Backlogなどのデファクトとなっているツールを最大限まで使い倒す、ということを現場に浸透させてきました。さらに、どの業務をオフショア開発に任せるべきか、というのを判断し、各拠点のメンバーと相談しながら徐々にベトナムへ移行しています。

・ベトナム側

前任者の時代にベトナムチームは35名に到達しましたが、品質問題が噴出し、一度そこから人数を減らしたという経緯があります。これを教訓に、規模の拡大に耐えられるよう、土台をしっかり作りながら進めています。具体的には、最終的な品質担保を行うPM(プロジェクト・マネージャー)、BSE(ブリッジSE)に優秀な人材を配置し、共通のガイドラインにそってプロジェクト運営を行ってもらっています。

その結果、徐々にプロジェクトのオフショア移管も進み、現在ベトナムチームも25名にまで回復しました。また、下記は一例ですが、扱ってるプロジェクトもユーザー影響の大きいものが増えてきて、やり甲斐を感じています。

「モバイル版 中古車・バイクのカタログサービス」「業販向けEC」「有名バイクメディア」

心がけていること

オフショア開発を行う上で主にこの三点を心がけています。

1.代理プロダクトオーナー

駐在というと、どうしても現地メンバーを「管理」するという発想になりがちです。以前、アジャイルとオフショア開発で発信力のあるエンジニアの方にアドバイスをもらったことがあって、「管理」ではなく「代理プロダクトマネージャー」として現地メンバーに接した方が良いと。

これは、日本にいるサービスの企画、運営を行っているプロダクトマネージャーの代わりに、現地でサービスの背景、狙い、収益構造などを説明することこそ大事という内容でした。ですので、何か改修を依頼するときでも、なぜその機能が必要なのか、必ず背景から説明するようにしています。この地道な積み重ねが、ベトナムエンジニアのコミットメントを引き出せると信じています。

2.ドキュメントが全て

多国籍チームになるに従い、コミュニケーションの齟齬は発生しがちです。文化や母国語が違うということを本当に慎重に扱わなくてはなりません。

対策としては、「ドキュメントが正」という文化を根付かせるしかないと考えています。チャットでも議事録でもGoogleDocsでもいいのですが、とにかく、書くことを面倒くさがらずに行うことが重要です。

例えば、開発ガイドラインに項目を常に足していって、開発の際に注意しないといけないことを言語化してみんなで守るようにしています。(英語、日本語、ベトナム語で記載) 日本人だけで仕事をすると、その場の空気感で物事が決まったり、暗黙知でお互いが仕事をしがちですが、それを排除していこうと考えています。

3.日越いいとこ取り

あと、「日本とベトナムの長所をミックスしていく」というのも意識しています。先日、あるリリースに立ち会ってた際、リリース中にそのやり方ではうまくいかないことが分かり、どうしようか?という話になりました。日本の感覚だと、一旦リリースを中止して、後日、代替案を検討&テストしてから再リリースしましょう、となりそうです。ところが、ベトナムのエンジニアは、その場で解決策を考えすぐ実装してしまうんですよね。ちょっと面食らいましたが、コードを見て問題なさそうだったのと、事業への影響度なども考慮した上で、その案を採用してリリースしました。この判断ができるかどうかが、日本とベトナムの間に立つ人間の役割だと感じています。結果的に、リリースを後日に回すことによる時間のロスを防げたので良かったです。

ベトナムエンジニアが持っているスピードを、日本のエンジニアが得意とする品質保証の仕組みでバックアップできれば、最強のチームが出来上がるはずです。

今後やりたいこと

今期50名体制を目指しています。さらに、2~3年後には最終的に100名体制まで拡大し、事業に貢献していきたいと考えています。当然、いたずらに規模拡大ではなく、品質やスピードを担保した上でのこの数字を追っていきます。

前述した通り、今はチームを盤石にするため、PM層に日本人を増やしていますが、最終的には、日本人を増やさなくてもベトナムのチームだけで拡大、自走できるというのが目標です。

さらに将来のことで、全然未計画ですが、アメリカなど日本以外の国からも開発案件を受けることができたら面白いんじゃないかと考えています。

最後に

今まで培ったIT技術やマネジメント経験を海外でも試してみたい、という方は是非プロトソリューションのオフショア開発推進に手を貸して頂ければ幸いです。

僕もそうでしたが、いきなりハノイ駐在は抵抗があるかもしれないので、まずは仙台、東京、沖縄のどこかに住みつつ、リモートでベトナムの開発チームと仕事をしてみよう、というのでも構いません。

最後までお読みいただき、ありがとうございました。

・現地の生活についてほぼ毎日ブログを書いてますので、良かったら覗いてみてください。

・いつもチーム運営をサポートして下さっているハイブリッドテクノロジーズ社にこの場を借りてお礼を申し上げます。

ページトップへ戻る