非公開求人
DSC/微経験DA/DX支援企業の求人
求人ID:1495874
更新日:2026/03/17
転職求人情報
職種
DSC/微経験DA
ポジション
メンバー
おすすめ年齢
20代
30代
40代
50代以上
年収イメージ
400万円〜600万円
仕事内容
小売・サービス・金融・通信など、さまざまな業界におけるデータ分析基盤構築、顧客分析、需要予測、価格最適化、売上分析から市場動向分析、BIによるKPIの可視化・レポーティングまで、幅広いビジネス課題・マーケティング戦略に応えるデータ利活用をリードします。大手クライアント・大手SIerとの多数のプロジェクトにおいて、上流工程から下流工程までクライアントと伴走し、経営者・ビジネス担当者のデータドリブンな意思決定を支援します。
▼業務内容
上流から下流まで全工程に携わり、お客様の課題をデータ活用の側面から解決します。実務経験の浅い方は、入社後最大2ヵ月程 座学研修を実施し、データ分析のプロフェッショナルへの第一歩を踏み出します。微経験からスタートした社員も多く、今までの経験などを活かしながら現在まで活躍しています。
<入社後の流れ>
ご入社
1日目|人事オリエンテーション
2日目|データサイエンス事業部配属・座学研修開始 (約2週間-2ヵ月)
PJ・業務アサイン
<研修内容>
座学研修後、スキルに応じた業務からスタート。その後、成長に応じてデータ分析や仮説検証、改善提案などをおこないます。
・Big Query (SQL) 研修: アプリデータを想定した大規模DB環境における集計・データマート作成
・Tableau研修: 実務を想定した、ダッシュボードの作成
・Python研修: データ分析プロセスに必要なPythonの習得および実習
・統計研修: 基本的な統計知識の理解
・データ分析研修: コンサル型データ分析のロールプレイ学習、CVR向上を目的としたウェブサイトデータの分析、KPIの可視化とデータ分析
※上記研修は2024年度実績の一部です。ご入社時期によって研修内容は異なります。
<実務/業務内容 ※代表的な一部を記載>
・データの加工/集計/抽出
・データ分析設計/実施
・機械学習などのモデル構築
・ダッシュボードの設計/構築
・施策の実施と効果分析
・生成AI活用におけるデータ活用/整備
・データパイプラインの設計/構築
・データPF・DWH・DMの設計/構築
・オンラインサービスにおけるユーザー獲得/アクティブユーザー増/解約抑止のためのデータ分析
・モバイル決済サービスの加盟店向けダッシュボードの運用と構築
・メガバンク向けダッシュボードの運用と構築
・大手製造メーカーのサイト分析
・会員データを活用したプロモーションシナリオ検討と効果検証
・在庫などの需要予測
・生成AI向けデータ整備
<詳細PJT 一部>
●例1:スマホアプリ利用促進施策の分析業務、施策立案をサポートする示唆出し
1. 基礎分析(データを可視化): RFMセグメントごとの属性やコンテンツの利用状況、遷移ルートを可視化し傾向を把握。使用ツール:BigQuery、Looker Studio。
2. 予測モデル: ロジスティック回帰のオッズ比を活用し、施策結果の説明性を高める。時系列モデルを用いてアプリの利用ログから翌月のセグメントを予測。使用ツール:Python(scikit-learnなど)。
3. レコメンドアルゴリズム: 協調フィルタリング、バンディット等。使用ツール:Python(scikit-learn、Scratchなど)。
●例2:ECを運営している事業会社様に対して全保有チャネルのマーケティングを支援し、CRMデータ分析により、効率的でデータドリブンなCRMコミュニケーション施策設計/運用に寄与
1. カスタマーデータ統合: Google Analytics、Adjust、EC Orangeのデータをユーザー単位で統合し、BigQuery上に分析DWHを構築。
2. BI分析環境構築: BigQuery上の分析用DWHから、BI連携用データマートを作成し、Tableauやnehanなど各種BIツールと接続しデータ分析PDCAの仕組みを構築し、効率化を図る。
3. CRM施策最適化: データ分析により、クロスチャネル下でのCRM施策、設計/運用を支援。獲得単価の低いチャネルで新規獲得させ利益率の高いチャネルへユーザー誘導するなど粗利を効率化する施策を実施。
●例3:数理最適、物流配送ルート最適化支援(物流業)
現状:配送ルートを決める作業について効率化ができておらずトラック・人にコストがかかっている。
解決後:数理最適化を活用することで、集荷の時間指定・運行負荷なルート等を加味した上で最適なルートを算出。
▼この仕事の魅力
◎技術的スキルやデータの洞察力: データベース設計やクエリの最適化、データベース管理など多くの技術的スキルを磨ける案件を担当。データベース内の情報を分析しパターンやトレンドを発見することで意思決定に根拠をもってアクションを起こすのに必要な洞察を得ることができます。データベース技術の進歩に追いつくために、常に学び続ける姿勢が必要になります。
◎お客様と共に創り上げる喜び: 当社の案件のほとんどが、お客様から直接依頼を受けているものなので、「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」がスタンダードです。データベースエンジニアは他の技術者や組織内の他の部門と連携してプロジェクトを推進する機会が多い職種です。チームワークと効果的なコミュニケーションを行うことで、お客様の心を動かし、チーム一丸となって共に創り上げる、【モノづくりの醍醐味】が味わえます。
◎どこでも通用する基礎能力: お客様は大規模企業ばかりなので、企画・開発プロジェクトも丁寧(かつ迅速)に進行します。「きめ細かい」シゴトを行うという、ビジネスマンにとって大切な基礎能力が【最高レベル】で身に付けられます。
▼使用言語・ツールなど
・言語:SQL, Python, R ほか
・OS:Windows, Mac OS, Linux ほか
・クラウド環境:Google Cloud Platform (GCP), Amazon Web Service (AWS), Microsoft Azure
・DB・DP例:BigQuery, Redshift, Snowflake, Databricks, TreasureData ほか
・BIツール例:Tableau, Looker Studio, PowerBI, Domo ほか
・ETLツール例:Amazon Glue, Dataflow, Azure Data Factory, Informatica, DataSpider, dbt ほか
・MLツール例:Amazon SageMaker, Vertex AI, Azure ML, DataRobot ほか
・その他ツール例:Google Analytics (GA4), Adobe Analytics, SAS, SPSS, MATLAB, Streamlit, Looker, GitHub, Docker, Tableau Server ほか
▼業務内容
上流から下流まで全工程に携わり、お客様の課題をデータ活用の側面から解決します。実務経験の浅い方は、入社後最大2ヵ月程 座学研修を実施し、データ分析のプロフェッショナルへの第一歩を踏み出します。微経験からスタートした社員も多く、今までの経験などを活かしながら現在まで活躍しています。
<入社後の流れ>
ご入社
1日目|人事オリエンテーション
2日目|データサイエンス事業部配属・座学研修開始 (約2週間-2ヵ月)
PJ・業務アサイン
<研修内容>
座学研修後、スキルに応じた業務からスタート。その後、成長に応じてデータ分析や仮説検証、改善提案などをおこないます。
・Big Query (SQL) 研修: アプリデータを想定した大規模DB環境における集計・データマート作成
・Tableau研修: 実務を想定した、ダッシュボードの作成
・Python研修: データ分析プロセスに必要なPythonの習得および実習
・統計研修: 基本的な統計知識の理解
・データ分析研修: コンサル型データ分析のロールプレイ学習、CVR向上を目的としたウェブサイトデータの分析、KPIの可視化とデータ分析
※上記研修は2024年度実績の一部です。ご入社時期によって研修内容は異なります。
<実務/業務内容 ※代表的な一部を記載>
・データの加工/集計/抽出
・データ分析設計/実施
・機械学習などのモデル構築
・ダッシュボードの設計/構築
・施策の実施と効果分析
・生成AI活用におけるデータ活用/整備
・データパイプラインの設計/構築
・データPF・DWH・DMの設計/構築
・オンラインサービスにおけるユーザー獲得/アクティブユーザー増/解約抑止のためのデータ分析
・モバイル決済サービスの加盟店向けダッシュボードの運用と構築
・メガバンク向けダッシュボードの運用と構築
・大手製造メーカーのサイト分析
・会員データを活用したプロモーションシナリオ検討と効果検証
・在庫などの需要予測
・生成AI向けデータ整備
<詳細PJT 一部>
●例1:スマホアプリ利用促進施策の分析業務、施策立案をサポートする示唆出し
1. 基礎分析(データを可視化): RFMセグメントごとの属性やコンテンツの利用状況、遷移ルートを可視化し傾向を把握。使用ツール:BigQuery、Looker Studio。
2. 予測モデル: ロジスティック回帰のオッズ比を活用し、施策結果の説明性を高める。時系列モデルを用いてアプリの利用ログから翌月のセグメントを予測。使用ツール:Python(scikit-learnなど)。
3. レコメンドアルゴリズム: 協調フィルタリング、バンディット等。使用ツール:Python(scikit-learn、Scratchなど)。
●例2:ECを運営している事業会社様に対して全保有チャネルのマーケティングを支援し、CRMデータ分析により、効率的でデータドリブンなCRMコミュニケーション施策設計/運用に寄与
1. カスタマーデータ統合: Google Analytics、Adjust、EC Orangeのデータをユーザー単位で統合し、BigQuery上に分析DWHを構築。
2. BI分析環境構築: BigQuery上の分析用DWHから、BI連携用データマートを作成し、Tableauやnehanなど各種BIツールと接続しデータ分析PDCAの仕組みを構築し、効率化を図る。
3. CRM施策最適化: データ分析により、クロスチャネル下でのCRM施策、設計/運用を支援。獲得単価の低いチャネルで新規獲得させ利益率の高いチャネルへユーザー誘導するなど粗利を効率化する施策を実施。
●例3:数理最適、物流配送ルート最適化支援(物流業)
現状:配送ルートを決める作業について効率化ができておらずトラック・人にコストがかかっている。
解決後:数理最適化を活用することで、集荷の時間指定・運行負荷なルート等を加味した上で最適なルートを算出。
▼この仕事の魅力
◎技術的スキルやデータの洞察力: データベース設計やクエリの最適化、データベース管理など多くの技術的スキルを磨ける案件を担当。データベース内の情報を分析しパターンやトレンドを発見することで意思決定に根拠をもってアクションを起こすのに必要な洞察を得ることができます。データベース技術の進歩に追いつくために、常に学び続ける姿勢が必要になります。
◎お客様と共に創り上げる喜び: 当社の案件のほとんどが、お客様から直接依頼を受けているものなので、「言われた通りに仕事をする」ではなく、「自ら提案を行っていく」がスタンダードです。データベースエンジニアは他の技術者や組織内の他の部門と連携してプロジェクトを推進する機会が多い職種です。チームワークと効果的なコミュニケーションを行うことで、お客様の心を動かし、チーム一丸となって共に創り上げる、【モノづくりの醍醐味】が味わえます。
◎どこでも通用する基礎能力: お客様は大規模企業ばかりなので、企画・開発プロジェクトも丁寧(かつ迅速)に進行します。「きめ細かい」シゴトを行うという、ビジネスマンにとって大切な基礎能力が【最高レベル】で身に付けられます。
▼使用言語・ツールなど
・言語:SQL, Python, R ほか
・OS:Windows, Mac OS, Linux ほか
・クラウド環境:Google Cloud Platform (GCP), Amazon Web Service (AWS), Microsoft Azure
・DB・DP例:BigQuery, Redshift, Snowflake, Databricks, TreasureData ほか
・BIツール例:Tableau, Looker Studio, PowerBI, Domo ほか
・ETLツール例:Amazon Glue, Dataflow, Azure Data Factory, Informatica, DataSpider, dbt ほか
・MLツール例:Amazon SageMaker, Vertex AI, Azure ML, DataRobot ほか
・その他ツール例:Google Analytics (GA4), Adobe Analytics, SAS, SPSS, MATLAB, Streamlit, Looker, GitHub, Docker, Tableau Server ほか
必要スキル
【必須スキル】
・IT業界での就業経験(2年以上)
・以下いずれか必須(1年以上)
・システム開発(Python、Java、React)
・データ抽出 or 分析経験
・データ構築経験
【歓迎スキル】
・SQLを用いたデータ業務経験
・デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)
・データ分析のためのデータ準備やマート設計の経験
・定量データを用いたデータ分析・レポーティング経験
・BigQuery・Amazon Redshift などを用いたビッグデータハンドリング業務のご経験
・Power BI や Tableau におけるダッシュボード構築経験
・DWH・データ基盤構築・データマートの設計・開発経験
・GoogleCloudPlatform (GCP) / Amazon Web Services (AWS) / Microsoft Azure いずれかのクラウドサービス・各種DP (データプラットフォーム) に関する導入・開発・実務経験
・DB (データベース)・ネットワーク・権限管理に関する技術知識・開発経験
・特定の業界におけるビジネス知識 (ビジネスモデル理解など)
【求める人物像】
・主体的に行動ができる方
・素直で、つねにプラスの発想ができる方
・最新の技術 (特にデータ利活用に関連する新たな技術) や知識の習得に貪欲な方
・自ら課題設定し主体的にPDCAを回してきた経験
・コミュニケーションを活発に取れる方
・SQLを使用したデータ抽出などを経験し、データ分析業務へシフトしたい方
・デジタルマーケティング領域の経験からデータアナリストを目指したい方
・開発エンジニア経験を生かし、データサイエンティストへキャリアチェンジしたい方
・将来はデータサイエンティストを目指したい方
・IT業界での就業経験(2年以上)
・以下いずれか必須(1年以上)
・システム開発(Python、Java、React)
・データ抽出 or 分析経験
・データ構築経験
【歓迎スキル】
・SQLを用いたデータ業務経験
・デジタルマーケティング領域における分析・ウェブ解析経験 (GoogleAnalytics, Adobe Analytics ほか)
・データ分析のためのデータ準備やマート設計の経験
・定量データを用いたデータ分析・レポーティング経験
・BigQuery・Amazon Redshift などを用いたビッグデータハンドリング業務のご経験
・Power BI や Tableau におけるダッシュボード構築経験
・DWH・データ基盤構築・データマートの設計・開発経験
・GoogleCloudPlatform (GCP) / Amazon Web Services (AWS) / Microsoft Azure いずれかのクラウドサービス・各種DP (データプラットフォーム) に関する導入・開発・実務経験
・DB (データベース)・ネットワーク・権限管理に関する技術知識・開発経験
・特定の業界におけるビジネス知識 (ビジネスモデル理解など)
【求める人物像】
・主体的に行動ができる方
・素直で、つねにプラスの発想ができる方
・最新の技術 (特にデータ利活用に関連する新たな技術) や知識の習得に貪欲な方
・自ら課題設定し主体的にPDCAを回してきた経験
・コミュニケーションを活発に取れる方
・SQLを使用したデータ抽出などを経験し、データ分析業務へシフトしたい方
・デジタルマーケティング領域の経験からデータアナリストを目指したい方
・開発エンジニア経験を生かし、データサイエンティストへキャリアチェンジしたい方
・将来はデータサイエンティストを目指したい方
就業場所
就業形態
正社員
企業名
DX支援企業
企業概要
DX支援企業
企業PR
業務カテゴリ
組織カテゴリ
備考
関連キーワード
応募ありがとうございました。コンサルタントからご連絡します
応募出来ませんでした。恐れ入りますがもう一度やり直してください
気になるに登録しました
気になるに登録出来ませんでした。恐れ入りますがもう一度やり直してください