自己紹介

AIテクノロジー推進室仙台に所属する関内(せきうち)と申します。 現在は深層学習(ディープラーニング)を利用したプロダクトの研究開発に携わっていますが、情報セキュリティを得意としておりまして、他のチームから相談を受けることも多くあります。 今回はこの情報セキュリティについてお話ししたいと思います。

情報セキュリティに興味を持ったきっかけ

2006年、Webシステムの開発を得意とする株式会社アイソリューションズ(現・株式会社プロトソリューション仙台本社)に入社しました。 Webシステムと言っても、特定企業の閉ざされたネットワーク内で動くものも多く、そういった開発案件ではさほど高いセキュリティレベルを要求されることはありませんでした。しかし、セキュアプログラミングの思想は徐々にですが着実に広まっていました。

2008年頃、社内でB2Bのオンラインショッピングモールの開発が始まりました。外部に開かれたシステムですので、悪意を持つユーザがいることを前提とした対策をしなくてはなりません。このプロジェクトで様々な脅威とその対策を検討した経験が成長につながりました。

大規模サービスの開発運用

その後、外部に出向し、プロスポーツ向けのサービスや広告サービス、B2Cのオンラインショッピングモールの開発に携わりました。 多くの人が知っている一般ユーザ向けのサービスですので、攻撃手法と保護したい情報を充分に検討し、優先順位をつけて対策することの重要性を学びました。

情報セキュリティのスペシャリストとして

2009年、この年に経済産業省の「情報セキュリティスペシャリスト試験」が創設されました。第1回試験で合格。 ただ、このことよりもセキュリティについて教えた後輩が第2回試験で合格したことの方が嬉しかったです。

情報セキュリティスペシャリスト試験は2016年をもって廃止され、「情報処理安全確保支援士」制度へと変わりました。 毎年の更新講習が義務付けられており、3年間で約15万円の維持費がかかるものの、当社では全額会社が負担してくれています。ありがたいことです。

資格取得奨励制度
情報処理安全確保支援士

情報セキュリティへの取り組み

常に知識をアップデートする

近頃の動向を見ても、10年前は話題に上らなかった脅威が登場しています。知識のアップデートは特に重要です。
以下に例を記載します。(2021年6月時点)

・APT(Advanced Persistent Threat 持続的標的型攻撃)
・オープンソースライブラリを通じたサプライチェーン攻撃
・パスワードスプレー攻撃 (low-and-slow攻撃)
・ランサムウェア
・暗号技術の危殆化 (TLS 1.0/1.1)

どのように戦うか

セキュリティ対応は、平常時の対応とインシデント対応に分けられます。
インシデント対応である「封じ込め 根絶 復旧」をまず頭に浮かべがちですが、平常時の対応も重要です。

・準備(予防)
・検知 分析
・封じ込め 根絶 復旧
・事件後の対応

出典: NIST Special Publication 800-61 Revision 2, Computer Security Incident Handling Guide

これは消防署のお仕事とよく似ています。
消防署は、インシデント対応である消火作業だけではなく、防火・普及啓発・警報装置の義務付け・設備の査察といった平常時の対策にも力を入れています。

脆弱性情報の収集

JVN, JPCERT, IPA, US-CERTのフィードを購読し、最新の脆弱性情報を収集しています。
Twitterや、Googleアラート(検索語句を登録しておくと、そのキーワードを含む新着記事を自動で通知してくれるサービス)も便利です。
技術情報全般に言えることですが、自分からアクションを起こさなくても自動的に情報が入ってくる仕組みを構築できるとよいでしょう。

JVN iPedia
JPCERT CC
IPA
US-CERT Alerts

情報セキュリティは日陰者?

情報セキュリティは、利益につながらないように見えがちです。平穏な時は誰も気にしないものです。
また、うまくやりすぎると、何も仕事をしていないように見えてしまいます。
プロダクトをわざと燃やした方が仕事ぶりをアピールできるかもしれませんが、それは職業倫理上絶対にやってはいけません。
平穏な時こそ、成果指標を整備し、どんなことをしていているのかを見えるようにすることが大事です。CISOダッシュボードによる可視化ができると良いでしょう。

CISOダッシュボードの例

品質向上への取り組み

品質への対応は、情報セキュリティとほぼ同じアプローチをとることができます。
品質が安定することで、次のことが達成できます。

・開発スピードの加速化
・コストの削減
・人材の増強

勉強会の実施

ここ数年で行った、品質やセキュリティに関する勉強会のタイトルをご紹介します。

・インシデントレスポンス概論/情報共有のトライアングル
・品質とリスクアセスメント
・AWS障害から学ぶこと
・品質の定量評価のすすめ
・リスクコミュニケーション
・自動車の安全技術に学ぶ システムの安全確保
・効果的なレビューの進め方
・情報セキュリティとセキュアプログラミング
・インシデントの収集と活用
・ソフトウェアの品質モデル
・品質とスピード、どちらをとる?
・インシデントハンドリング
・根本原因解析
・品質とコミュニケーション
・影響調査漏れとレガシーコード

タイトルのみのご紹介ですが、品質やセキュリティの確保の取り組みに共感いただければ嬉しいです。

実際に使ったことがあるツールや手法

プロジェクトの課題や目標を共有し可視化する
プロジェクトの課題や目標を共有し可視化する

・NIST SP800-61 インシデント対応プロセス
・ふりかえり (Retrospective)
・ポストモーテム (Project Post-Mortem)
・根本原因解析 (RCA)
・フォールトツリー解析 (FTA)
・故障モード影響解析 (FMEA)
・失敗まんだら
・ImSAFER

品質向上のアンチパターン

よくあるダメな例は、文書を作って対策したことにすることです。

・体制やマニュアルを作っただけで終わりになってしまい、インシデントを防げない・インシデントが起こったときに役立たない
・チェックリストの項目だけが増えて、チェックが形骸化する

また、人にフォーカスするのもよくありません

・責任追及や犯人探しになってしまい、真相究明がおろそかになる
・「注意します」「気をつけます」で済ませてしまう

現場に寄り添いつつ、何が起こっているのかを明らかにしましょう。

起こったことを詳細に分析し対策する
起こったことを詳細に分析し対策する

「気合と根性」で解決する時代は終わり

問題というものは頭を使って、システマティックに解決するべきだと思っています。
長時間労働や人海戦術・精神論が登場したら、それはマネジメントの失敗だと思ってほしいです。
品質やセキュリティは、設計段階やそれ以前のフェーズで作り込むのが重要です。

最後に

失敗しても全然OK!

これは修造カレンダーに書いてあった松岡修造さんの言葉です。
私は15年前、入社1ヶ月目のヒヨコの頃に、データベースを全て吹っ飛ばすという失敗をしました。コピー元とコピー先を取り違えたのが原因です。
当時の先輩が、「作業前にバックアップを取ってね」と教えてくれたことと、開発サーバだったことで大事には至りませんでした。

セキュリティの世界では、多層防御やゼロトラストのように、侵入されることを前提とした考え方があります。品質でも、ヒューマンエラーが起こることを前提にして、仕組みを整備することが大切です。
安全に失敗できる環境を用意してあげることも、チームメンバーの役割です。
シリコンバレーの安全文化にも、「素早く、繰り返し、安全に、賢く失敗せよ」というものがあります。

・Fail Fast
・Fail Quick
・Fail Often
・Fail Cheap
・Fail Smart

小さな失敗を繰り返すことで、大きな失敗を避けることができます。

セキュリティエンジニアを目指したい方へのアドバイス

物事の仕組みに興味を持ち、プログラミングの他に、OSやネットワーク・通信プロトコルの知識をつけるとよいでしょう。
これらを深く知ることで、脆弱性や攻撃手法を見たときに「これはOSI参照モデルの第n層で起きていることだな」と理解できます。
システムを漠然とした一つのものとしてとらえていると、何が起こっているかを理解できません。

実際の手法を知るには、IPAで公開している資料や、Kali Linux のようなセキュリティに特化したLinuxディストリビューションで体験することもできます。ただし、他社のサイトを攻撃することは違法ですので行わないでくださいね。

安全なウェブサイトの作り方
Kali Linux

この記事を読んで、情報セキュリティに興味を持ったり、大規模ITサービスを安全に運用してみたいと思った方がいらっしゃいましたら幸いです。

ITエンジニア

ITエンジニア

沖縄本社では、一緒に働くITエンジニアを募集しています

AIエンジニア、システムエンジニア、その他多数募集中!

ITエンジニア

ITエンジニア

仙台本社では、一緒に働くITエンジニアを募集しています

自社プロダクト(SaaS)開発エンジニア、社内インフラ、その他多数募集中!

ITエンジニア

ITエンジニア

東京支社では、一緒に働くITエンジニアを募集しています

データサイエンティスト、データベースエンジニア募集中!

生産人口の減少問題を、データとAIで解決する株式会社プロトソリューション(沖縄本社:沖縄県宜野湾市、仙台本社:宮城県仙台市、代表取締役社長:白木享)は、令和2年度イノベーション創出強化研究推進事業「AI画像認識による幼生同定技術の開発と幼生輸送予測によるマガキ養殖業の効率化・安定化」に参画し、同事業において「AI画像認識による幼生の同定・計数システムの開発」を担当しております。

■同事業参画における背景・目的

プロトソリューション仙台本社は、地場の企業様と連携し、得意とするWeb技術を提供することで、地方経済への貢献をめざしております。ディープラーニングを活用した画像認識ソリューションを強みとし、大規模クルマ情報メディアでの車体識別・サイト監視など、培ってきたAI技術の活用と地域貢献を目的とし、同事業への参画を行いました。

本研究は生研支援センター「イノベーション創出強化事業」の支援を受けて実施しております。

■同事業参画リーダー関内氏インタビュー

icon_福田

icon_福田

関内 孝行 せきうち たかゆき

2006年入社。仙台本社勤務。AIテクノロジー推進室の新規サービス開発チームに所属。社内の技術推進部門の一員として、新サービスやAIの開発に携わっており、その傍らエンジニアからの技術的な相談に乗るなど、指導役とシステム管理者としての役割を担っている。また、情報セキュリティスペシャリストの資格を保有し、情報セキュリティ技術の専門家として、開発における工程管理、品質管理を支援する立場でもあり、マルチに動き回るフルスタックエンジニアとして活躍している。

本事業の中課題リーダーをつとめる関内氏に、事業の目的や今後の展望についてインタビューしました。

「マガキの養殖は、養殖の出発点となる種ガキを確保(採苗)するために適度に成長した幼生が現れたときに採苗器を海に投入する必要があります。そのため、漁業者などが発生状況を顕微鏡で観測しているのですが、熟練の技術と労力が必要で、見落としや人によるバラツキもあります。この問題をAIで解決し、省力化・高精度化・情報配信の高速化をし、養殖の安定化や増産につなげるのが目的です。」

事業参画のきっかけ

事業パートナーのアンデックスさまより、AI画像認識技術を強みとする会社を探しているということで手を挙げ、参画することが決まりました。宮城県は水産業が盛んで、今回の研究対象となるカキの生産量は全国2位を誇っています。震災の影響で養殖への影響も大きく、AI画像認識技術で役立てることがあればと思いました。
ただ、水産業に関しては素人なので、マガキについて学ぶことは多かったですね。

「IT×水産業」で養殖の安定化・増産を目指す

水産業に限らず、「人が目で見て、何らかの判断をする作業」については、画像認識で解決できる可能性はあると考えています。今回は、種ガキ採苗の効率化を目指しております。

種ガキの採苗について
カキは7~8月頃に卵を産み,浮遊幼生の時期を経て,岸壁や岩礁等,様々な所へ付着します。この性質を利用して,カキの浮遊幼生が集まりやすい場所へホタテガイの貝殻を連ねた採苗器(コレクター)を垂下し,これにカキの稚貝を付着させます。宮城県ではカキの産卵時期になると,水産技術総合センターが中心となり,本県の種場である松島湾及び石巻湾等におけるカキ浮遊幼生の発生状況や成長具合を調査し,情報提供を行っています。

種ガキの採苗について(宮城県HPより)
 

従来の方法では、カキの浮遊幼生の大きさ・個数を顕微鏡にて人が確認をとっています。この方法では、作業者によって精度のばらつきがあり、小さな視覚内でのチェックになることで見落としも多く発生していました。幼生の成長度・数が不足した状態で採苗器をおろしても、カキの稚貝が付着せずに無駄骨となってしまうこともあります。

今回の事業では、AI画像認識技術を用いることで、マガキ幼生の大きさ・個数を判別し最適なタイミングで採苗器を垂下できれば、マガキ養殖の安定化や増産が見込めます。

2021年5月時点では、AIによるマガキ判定が86.3%となり、高い精度でマガキ幼生の大きさ・個数を数値化できるようになっています。

実際に産卵期を迎える7,8月を見据えて、6月下旬からサンプリングをスタートし、さらに精度をあげていきたいですね。

教師データ作成のために医療分野の取組みを参考に

AI画像認識技術をマガキ幼生同定に活用するには、学習データ(教師データ)が必要になりますが、サンプルが少ないことが一つ難しかった点ですね。

こういった課題は、医療分野のAIにも言えます。症例数の少ない病気では画像が少なく、ラベル付けに専門家の協力が必要なところなどが共通しています。

医療分野のAI論文で学習の手法が盛んに研究されており、データの増幅 (Data Augmentation) はもちろんのこと、ラベル付けに仮組みのAIを参加させるという手法 (Active Learning や Human in the Loop) を応用することができました。
「水産業」「医療」など業種で区切るのではなく、課題としての共通点を抽出することはとても大事ですね。

AI画像認識技術をはじめとする新たな技術を活用した今後の展望

マガキの幼生をきっかけに、他の貝養殖においても同様の課題があがっています。本事業と同様の仕組みを活用
すれば、他の漁業関係者の負担や課題を解決することができることも増えると思います。
人手不足の解消や、スピーディな対応など、IT化が進むことでのメリットは多くあります。
地域に根差すエンジニアとして、宮城県の産業活性化につながる研究を続け、地域社会に貢献していきたいですね。

This blog post is the first of a blog series about speed up your machine learning prototyping. In part 1 (this part) I will talk about how to structure machine learning projects and the workflow for faster development. In part 2 I explain how to further increase the development speed with a toolbox we developed. In this post, I focus on computer vision tasks with datasets containing images as data and image annotations (bounding box, etc), but the concept is adaptable to other fields as well (NLP, tabular data, etc.).

About me

My name is Sebastian Rettig and I develop machine learning / deep learning prototypes at the AI Technology R&D Division for over 4 years now. Currently I focus on development speedup through (semi-) automation, tooling and workflow optimization.

The prototyping workflow

The workflow for machine learning projects can be broadly divided into 4 tasks arranged in a loop. The following paragraphs explains each task and corresponding steps.

1. Dataset

Create a dataset contains four main steps. First collect the data (e.g. images or tabular data) from a database, from the internet or download an existing dataset (e.g. Image-Net, COCO, PascalVOC). Second you split your data into a training set, validation set and test set. Third if not already annotated, annotate the training set and validation set by using an annotation tool, e.g. VGG Image Annotator (VIA)or VoTT (Visual Object Tagging Tool). Finally you should validate your dataset before start training to ensure that the annotations are correct as well as the training, validation and test set do not intersect, otherwise the training and benchmark results do not reflect the correct training state.

2. Training

In the training task the first step is to setup the model which includes model selection and / or modification. The second step is to connect the dataset with the model by implementing a dataset reader. The last step is to fine tune hyper parameters (batch size, learning rate, training epochs, loss function, regularization, etc.) and start the training.

3. Validation

Implement a benchmark which use the test set in the dataset. The data is fed into the trained model for inference and the results can be stored in a report file, printed in terminal or visualized in a webpage. Additionally implement analyzation tools like heatmap visualization or confusion matrix generation to reason about the current benchmark result. If the validation result do not match the premise (goals), start a new iteration with step 1.

4. API

This task is optional. You implement an inference API for demonstration purposes.

The problems

Using the prototyping workflow above, I describe the problems I faced the most in recent years.

Dataset reusability

Most machine learning or deep learning tutorials focus on how to create a model and train it with an existing dataset. That’s good if you develop or modify an existing model and want to compare your results with state of the arts (SOTA) results. But often you need to create a new dataset because existing datasets do not fit your needs. In my experience creating a dataset takes a lot more time than training the model itself and the resulting datasets are highly project-specific and hard to reuse. Three examples:

1. An image classification dataset with a label for each image can not be reused as a object detection or image segmentation dataset, there are no object annotations.

2. An object detection dataset for detecting cars on road can not be reused for detecting pedestrians, there exist no object annotations for pedestrians.

3. An object detection dataset can not be reused for image segmentation, the annotation shape do not fit.

Script reusability

To create a dataset, you can try to consolidate data from multiple existing datasets where you need to write conversion scripts between annotation formats. These scripts are often written quick and less generic, specific to the context of the project and project structure, because normaly you only convert once. This is correct until you are coming back to the same situation in another project. This also happens if you want to deploy an API for demonstration purposes. You often copy and paste an existing API script and rewrite the model inference, the pre- and post-process part as well as the UI template.

Third party repository integration

Research papers publish the source code often as a Git repository. The project structure of the source code differs and if you clone the repository and use them in your project, you are forced into that structure. There is additional time necessary to learn the structure and the workflow as well as write custom tools which also reduce code reusability.

The solution

The prototyping workflow is a loop and the tasks repeat with each iteration. Implement tools and libraries to automate and shorten the time for each iteration brings great benefit. To solve above problems, I do first a workflow refinement and create a project structure based on that. Tools and libraries are handled in part 2 of this blog series.

Workflow refinement

To increase dataset reusability the workflow changes as shown in the graphic below.

  1. 1. A data mining task is added. The goal of the data mining task is to create data collections with project-independent annotations. Because project context knowledge is not necessary, this task can be outsourced to a different team without background knowledge. The image below – taken from the COCO dataset – shows an example annotation. Street signs and cars are annotated to fit the shape as best as possible.

2. The dataset task creates a dataset out of a data collection by filter and convert only needed annotations. The data is then split into a training set, validation set and test set. This allows an easy integration and implementation of cross-validation as well. Below image shows the converted annotations in an object detection dataset.

The project structure

Below is the project folder structure created from above workflow refinement.

※Note: The data collection and dataset images are abbreviated.


workspace/
├── MyProject
│   ├── .gitignore
│   ├── datasets
│   │   └── street_views_objects
│   │       ├── build_2021.05.27-15.27.04.log
│   │       ├── categories.txt
│   │       ├── test
│   │       │   ├── 1343960723_453991a044_z.jpg
│   │       │   ├── ...
│   │       │   └── 536972399_0168b9ebec_z.jpg
│   │       ├── train
│   │       │   ├── 16417442_ead85468b4_z.jpg
│   │       │   ├── ...
│   │       │   └── 9276603906_014a6216b7_z.jpg
│   │       ├── val
│   │       │   ├── 2582184275_5ae1b927b9_z.jpg
│   │       │   ├── ...
│   │       │   └── 9065898919_89845cbf38_z.jpg
│   │       ├── via_region_data_train.json
│   │       └── via_region_data_val.json
│   └── modules
└── collections
    └── street_views
        ├── categories.txt
        ├── test
        │   ├── 1343960723_453991a044_z.jpg
        │   ├── ...
        │   └── 536972399_0168b9ebec_z.jpg
        ├── trainval
        │   ├── 16417442_ead85468b4_z.jpg
        │   ├── ...
        │   └── 9276603906_014a6216b7_z.jpg
        └── via_region_data.json

The workspace folder is defined here as the root folder for all projects. The collections folder contain all data collections. A data collection (street_view in this example) has a trainval folder for images used in training and a test folder for benchmark images. Beside the collections folder are the project folders (MyProject in this example). Because datasets are project-specific, they are stored in each project in a datasets folder. Inside a dataset folder (the street_views_objects object detection dataset in this example) are the folders train containing the training set, val the validation set and test the benchmark images. Finally the modules folder is the place to install third party repositories. The .gitignore file should ignore the datasets contents

Use git submodules to add third party git repositories

Research projects and sometimes APIs publish their source code in git repositories. Your project resides in his own repository which makes it difficult to manage multiple repositories. You should not put third party git repositories outside your project nor copy third party repository files and folders into your project as this blows your repository with contents you did not develop. Instead use the good old git submodules to add only a reference to your repository. Below are two examples to add research APIs residing in git repositories with results in the following folder structure in the modules folder (abbreviated).


│   └── modules
│       ├── detectron2
│       │   ├── GETTING_STARTED.md
│       │   ├── ...
│       │   └── tools
│       └── tensorflow
│           └── models
│               ├── AUTHORS
│               ├── ...
│               └── research

Example: Add Tensorflow Object Detection API


The Tensorflow Object Detection API installation steps explain two ways to install the API, with docker or pip. Both ways require to clone the repository to local first. Instead of cloning, we add a submodule to our project repository and store the API inside modules/tensorflow/models with the instruction below.


# inside your project folder
git submodule add https://github.com/tensorflow/models.git modules/tensorflow/models
# follow the instructions related to the submodule folder
cd modules/tensorflow/models/research
# Compile protos.
protoc object_detection/protos/*.proto --python_out=.
# Install TensorFlow Object Detection API.
cp object_detection/packages/tf2/setup.py .
python -m pip install .
# go back to the project folder
cd ../../../..
# commit the API reference to the project repository
git commit -m "installed Tensorflow Object Detection API"


The test application command below can be executed from the project folder either by use relative path or the (recommend) module path execution


# inside your project folder
# Test the installation. (relative path execution)
python modules/tensorflow/models/research/object_detection/builders/model_builder_tf2_test.py
# or Test the installation. (module path execution) (RECOMMEND)
python -m modules.tensorflow.models.research.object_detection.builders.model_builder_tf2_test

To update the API to the newest commit from the API repository, pull the master branch inside the API repository in modules/tensorflow/models.


# go to the API repository from inside your project folder
cd modules/tensorflow/models
# pull the newest commits from the API repository
git pull origin master
# rebuild the protos
cd research
protoc object_detection/protos/*.proto --python_out=.
# go back to the project folder
cd ../../../..
# commit updated reference
git add modules/tensorflow/models
git commit -m "updated Tensorflow Object Detection API"

Example: Add Detectron 2 API

The Detectron 2 API installation steps explain two ways to install the API

1. install the repository with pip

2. local clone the repository and do an editable pip install.

We will use the second way but instead of cloning, we add a submodule to our project repository and store the API in t modules/detectron2 with the instruction below.


# inside your project folder
git submodule add https://github.com/facebookresearch/detectron2.git modules/detectron2
# editable pip install to submodule
python -m pip install -e modules/detectron2
# commit the API reference to the project repository
git commit -m "installed Detectron 2 API"

To update the API to the newest commit from the API repository, pull the master branch inside the API repository in modules/detectron2.


# go to the API repository from inside your project folder
cd modules/detectron2
# pull the newest commits from the API repository
git pull origin master
# remove old build
rm -rf build/ **/*.so
# git back to the project folder
cd ../../..
# rebuild API
python -m pip install -e modules/detectron2
# commit updated reference
git add modules/tensorflow/models
git commit -m "updated Detectron 2 API"

The training step

Creating a sample dataset is recommend for faster development. This allows e.g. for validation or debugging that the model actually starts converging by using less images and shorter epochs.
The model checkpoints and weight files are recommend to save in the folder of the dataset used for training. This allows easy association between dataset, training and validation results and reduces management time if stored outside.

Recap

I explained a way to create a unified structure for machine learning projects. Third party repositories can be integrated into this structure by using git submodules. Having a unified project structure makes it easier to implement reusable generic scripts and to maintain projects.
A data collection with project-independent annotations allows data reusability. Datasets are project-specific and generated from data collections by filter necessary annotations and convert them to the format needed in the project.

Part 2 of this series explains the tooling based on this project structure to improve the iteration time.

Join us!

ITエンジニア

ITエンジニア

沖縄本社では、一緒に働くITエンジニアを募集しています

AIエンジニア、システムエンジニア、その他多数募集中!

ITエンジニア

ITエンジニア

仙台本社では、一緒に働くITエンジニアを募集しています

自社プロダクト(SaaS)開発エンジニア、社内インフラ、その他多数募集中!

ITエンジニア

ITエンジニア

東京支社では、一緒に働くITエンジニアを募集しています

データサイエンティスト、データベースエンジニア募集中!

株式会社プロトソリューション(本社:沖縄県宜野湾市、代表取締役社長:白木享)が発行する不動産情報誌「グーホーム」は、2013 年 2 月創刊から皆さまに支えられて、2021 年 5 月 25 日発行号(2021 年 7 月号)で創刊 100 号を迎えます。これからも「グーホーム」は住まいに役立つ情報をお届けし、お客様の住まい探しをサポートすることで、沖縄県内における不動産業界の発展に貢献していきます。

■ 創刊 100 号メッセージ

グーホームは 2013 年 2 月に創刊し、皆さまのおかげで今号にて 100 号を迎える事ができました。誠にありがとうございます。今後も沖縄県最大級の賃貸・売買物件情報だけではなく、リフォームや保険など、より良い“住まいのパートナー”として、一人でも多くの方のお役に立てるサービスを目指して参ります。
これからも変わらぬご愛顧のほど、よろしくお願い申し上げます。

グーホーム 一同

不動産情報メディア「グーホーム」

沖縄の不動産を借りたい・買いたい・建てたい・売りたいと幅広いニーズに応えた物件掲載数が沖縄最大級の不動産総合サイトです。グーホームは Web でいつでも簡単検索!おすすめ物件だけでなく、引越しの際や一戸建て、マンション購入のお役立ちガイドなど便利な情報も提供しています。

URL :https://goohome.jp/
株式会社プロトソリューション
代表者 :代表取締役社長 白木 享(しらき とおる)
本社 :沖縄県宜野湾市大山 7-10-25 プロト宜野湾ビル
設立 :2007 年 4 月 3 日
事業内容:デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
URL :https://www.protosolution.co.jp/

電動アシスト自転車のシェアリングサービス『CYCY(サイサイ)』を運営する株式会社プロトソリューション(本社:沖縄県宜野湾市、代表取締役社長:白木 享、以下「プロトソリューション」)は、沖縄県内の「ローソン」店舗5店舗に、シェアサイクル『CYCY』のステーションを導入いたします。

■ 背景・目的

沖縄県では、慢性的な交通渋滞や公共交通の空白地域の存在などの理由から、一部の地域で円滑な移動が確保されていない状況があり、市民生活や経済活動に大きく影響する市内交通環境の整備が求められています。

当社では、これらの社会課題解決に向け、公共交通の機能の補完・代替等に資する新たな都市の交通システムとして、沖縄県内におけるシェアサイクル拡大につとめてまいりました。
現在、コロナ禍において三密回避の移動手段ニーズが高まる中、人々の通勤・通学や買い物のスタイルも変容しております。このような状況の中、県内各所に多数の店舗を構えるコンビニエンスストアの重要性は更に高まっており、ステーションの設置を求める声も多くいただいております。

今回、沖縄県内のローソンにシェアサイクル『CYCY』のステーションを設置することにより、日々の買い物のための移動へ、安心と利便性を提供してまいります。

■ 5/21 開設店舗

① ローソン 那覇国際高校前店
② ローソン 那覇真嘉比入口店
③ ローソン 那覇崇元寺通店
④ ローソン 那覇国場店
⑤ ローソン 那覇長田二丁目店

■シェアサイクル「CYCY」について

シェアサイクル事業CYCY(サイサイ)

株式会社プロトソリューションが2019年10月より開始したシェアサイクル事業です。

ICTを活用し、地域に根ざしたシェアサイクル事業を行うことで、観光客の利便性向上を図り、交通渋滞緩和、環境への配慮を目指します。

なお、本サービスは、OpenStreet株式会社が提供する自転車シェアリングシステム「HELLO CYCLING」を活用して行います。

沖縄のシェアサイクル CYCY(サイサイ)の料金・概要はこちら

【シェアサイクル「 CYCY 」における稼働状況(2020年12月現在)】
・ステーション数:39拠点
・ラック数:272台分
・自転車台数:115台
(ステーション、稼働自転車台数ともに順次拡大予定)

■「HELLO CYCLING」について

HELLO CYCLING

 「HELLO CYCLING」は、事業者や自治体向けのシェアサイクルプラットフォームです。「HELLO CYCLING」を活用したシェアサイクルサービスの利用者は、「ステーション」の検索から自転車の利用予約、決済までの一連の手続きをスマートフォンやパソコンで簡単に行うことができます。また、「ステーション」であればどこでも自転車を返却することができます。「HELLO CYCLING」の詳細はこちら(https://www.hellocycling.jp/)をご覧ください。「HELLO CYCLING」を提供するOpenStreet株式会社は、Zコーポレーション株式会社、ソフトバンク株式会社、ENEOSイノベーションパートナーズ合同会社、双日株式会社が出資しています。

【HELLO CYCLING プラットフォームについてのお問い合わせ先】
OpenStreet株式会社 houjin_support@hellocycling.jp



【株式会社プロトソリューション】
代表者 :代表取締役社長 白木 享(しらき とおる)
本社 :沖縄県宜野湾市大山7-10-25 プロト宜野湾ビル
設立 :2007年4月3日
事業内容:デジタルマーケティング事業、ITインテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
URL :https://www.protosolution.co.jp/

新型コロナウイルス感染症が及ぼす沖縄県内経済への影響を調べるため、不動産情報『グーホーム』は「那覇市 店舗・事務所状況調査(2019年1月~2021年3月末)」を実施致しました。
この度、沖縄タイムスにて本調査データを活用した記事が掲載されました。

■掲載日
2021年4月17日(土)

■掲載箇所
沖縄タイムス 経済7面

沖縄タイムスプラス(Web版)

◆ 不動産情報「ヤーと家ば、グーホーム」
グーホームは沖縄県内の不動産情報を取り扱っており、不動産情報Webサイト、スマホアプリ、不動産情報誌にて情報を展開しております。
グーホームは沖縄最大級の物件情報を掲載し、住みたいエリアから予算に合わせて物件を探すことが出来、新築マンションだけでなく土地、一戸建ての売買情報が豊富で、お近くの不動産会社選びにも活用頂けます。さらに、お部屋探しのコツや契約方法、お引越しのアドバイスまで情報満載の媒体となっております。

不動産情報「グーホームWebサイト」 https://goohome.jp
不動産情報誌「グーホーム」毎月25日発売 定価120円(税込)

【株式会社プロトソリューション】
プロトソリューションは、データ・AIを活用したソリューション企業であり、沖縄のクルマ情報「グー沖縄」や不動産情報「グーホーム」などのメディアを運営。BPO事業で培った知見からオンラインサービスの開発・運営、AI/データを活用したソリューション、IT人材育成・人材派遣などの事業を展開しています。
代表者 :代表取締役社長 白木 享(しらき とおる)
本社 :沖縄県宜野湾市大山7-10-25 プロト宜野湾ビル
設立 :2007年4月3日
事業内容:デジタルマーケティング事業、ITインテグレーション事業、ユーザメディア事業、
コミュニケーションサポート事業、人材支援事業
URL :https://www.protosolution.co.jp/

<本件に関するお問い合わせ先>
株式会社プロトソリューション
[沖縄本社] メディア事業推進室 広報担当:玉城 久子(たまき ひさこ)
Tel: 098-890-2400 Fax:098-890-2404
E-Mail:h-tamaki@protosolution.co.jp


株式会社プロトソリューションは、2021シーズンにFC琉球のオフィシャルTV(ティーヴィー)プログラムパートナーに就任し、FC琉球公式応援テレビ番組を制作協力いたします。

J1昇格を目指して日々励む「FC琉球」の応援番組となっており、普段とは違う選手達の魅力に迫ります。是非ご覧ください。

■放送開始日:2021年4月10日(土)

■放送局:沖縄テレビ(OTV)8チャンネル

■番組名:シンカTV

■番組ホームページ:https://www.otv.co.jp/shinkatv/

■放送日:毎週土曜11:15AM~11:30AM
【10月21日追記】 10/23(土)放送より、放送時間が11:10~11:25へ変更となりますのでご了承ください。

生産人口の減少問題を、データと AI で解決する 株式会社プロトソリューション(本社:沖縄県宜野湾市、代表取締役社長:白木享)は、2021 年 4 月にお客様の価値観に共感し、ご要望にフレキシブルに応える Web 業務支援「SENZOKU LAB.」をリリースいたしました。

■ 「SENZOKU LAB.」リリースにおける背景・目的

急速な人口減少と高齢者増加による生産人口の減少問題は、日本経済における大きな社会課題の一つです。
この「生産人口の減少問題」において、働き方は大きな変革を迎え、もはや雇用による人員確保ではなく、外注や
派遣・パートナー活用の割合増加に繋がっています。外注など社外リソース活用にはメリットはあるものの、契約
の縛りやナレッジの蓄積、拡張性といった点においては課題を残しています。BPO 企業として多くの企業様と協
業する当社にも、社外リソース活用時の課題を解決する要望やお声を聴く機会が多くなりました。
「お客様の価値観に共感し、共通の目標を目指す、お取引先企業専属のラボが当社でなら形成できる!」
特にナレッジの蓄積が不可欠な継続案件での人員確保や、突発的なWeb業務への対応を強みとし、お客様に
寄り添えるWeb業務支援サービスとして「SENZOKU LAB.」を立ち上げました。

■ 「SENZOKU LAB.」の特長

1. Web サイト運用の効率化
お客様と同じ課題に向き合い、積極的に汲み取り、補います

2. 突発的な大規模作業
仕組化・RPA による効率化と人手による細かな調整を両立

3. 外注が困難なオペレーション
複雑で切り出しにくい属人業務のナレッジ化が得意です

■ 「SENZOKU LAB.」導入事例

・ コーディングを丸ごと委託 : Web ディレクター・Web デザイナーの想いを具現化・実装いたします
・ バックオフィスを RPA 化 : 事業のバックオフィス業務(アカウント発行・事務/経理手続きなど)を効率化
・ Web 動画広告作成・運用 : 広告チームにてマーケティングからクリエイティブ制作まで一気通貫して対応
SENZOKU LAB.サイトはこちら:https://senzoku-lab.jp/

株式会社プロトソリューション
プロトソリューションは、「生産人口の減少問題を、データと AI で解決する」ことをミッションとするソリューション企業です。沖縄県宜野湾市に本社を置き、沖縄のクルマ情報「グー沖縄」や不動産情報「グーホーム」などのメディア運営をはじめ、デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、コミュニケーションサポート事業、人材支援事業の5つの事業を展開しています。

代表者 :代表取締役社長 白木 享(しらき とおる)
本社 :沖縄県宜野湾市大山 7-10-25 プロト宜野湾ビル
設立 :2007 年 4 月 3 日
事業内容:デジタルマーケティング事業、IT インテグレーション事業、ユーザメディア事業、コミュニケーションサポート事業、人材支援事業
URL :https://www.protosolution.co.jp/

【本リリースに関するお問い合わせ先】
㈱プロトソリューション(www.protosolution.co.jp)メディア事業部 玉城 久子
沖縄県宜野湾市大山 7-10-25 携帯:090-9262-4102 FAX:098-890-6713
Mail:h-tamaki@protosolution.co.jp

CODE

2021年3月14日(月)にプログラミング教室13期生の卒業発表会を行いました。13期生は1月から受講しており、約2ヶ月間のプログラミングの学習を続けました。今回は緊急事態宣言に伴い、途中でオンラインでのライブ講義で進めることになりました。緊急事態宣言が解除されてからは再びオフラインでの講義となりました。

13期生は受講生同士でコミュニケーションが活発で切磋琢磨に学習していました。緊急事態宣言明けの講義では会話が止まらず盛り上がっていたのが印象的でした。
最終発表は社内承認システムやポケモン図鑑のなどを機能が充実しているサービスを開発していました。中には500時間以上学習した人もいて、充実した2ヶ月間を過ごした様子でした。

13期生は卒業してから1週間後には集まっており、卒業後も学習意欲が高いままであるので今後の活躍も期待でき、今から楽しみです。卒業後はサポート講師になる方が多く、これからコミュニティに関わってくれそうです。これまでの卒業生と関わりながら互いに助け合いながら目標に向かっていただけると嬉しいですね。

さて、2021年4月より13期生が新しくスタートします。14期生も期待しつつプログラミングの学習を支える環境を作っていき、受講生の目標達成を応援していければと思います。14期生の進捗もTwitterで発信していきますので、ご興味ある方はぜひフォローお願いいたします。

・卒業発表の動画
https://youtu.be/i6KE0bES1uU

・プログラミング教室
https://www.protosolution.co.jp/codebase/program-school/index.html

・Twitter
https://twitter.com/CODEBASE098

ページトップへ戻る