非公開求人
データエンジニア (ミドル)/上場Fintechクラウド型ERPソフト開発・サービス提供企業の求人
求人ID:1487762
更新日:2026/02/05
転職求人情報
職種
データエンジニア (ミドル)
ポジション
ミドルレベル
おすすめ年齢
20代
30代
40代
50代以上
年収イメージ
550万円〜950万円
仕事内容
自社データプラットフォームチームのミドルレベルデータエンジニアとして、当社における、ほぼすべてのシステムを接続する中央データハブのスクラッチ構築および保守を担当していただきます】
最新のクラウドベースのデータ技術を用いて、様々な銀行システムからのデータ取り込み、複雑なビジネスロジックの適用を行い、経営管理、規制報告、リスク管理、その他多くのアプリケーションの下流システムへのデータ提供を行います】
銀行ドメインにおける高い要求水準に応えるため、データ品質、システム間の照合(Reconciliation)、時間的制約のあるデータ処理、完全なトレーサビリティなど、複雑なデータエンジニアリングの課題に取り組むことになります】
このミドルレベルのポジションでは、シニアエンジニアやテクニカルリードと連携して複雑な問題に関する指導を受けながら、自律度を高めてデータパイプライン開発に取り組んでいただくことが期待されます】
開発体制: 銀行業界のパートナーと緊密に連携しながら、少人数のアジャイルなチームで運営しています】
自社データプラットフォームチームは急速に拡大しており、年内にデータエンジニア体制を目指しています】
仕事のやりがい
・得られる経験: 当社では、皆様の参画を心待ちにしています】
銀行システムという社会的影響力の大きい領域において、最新のデータレイクハウスアーキテクチャを用いた大規模なデータ基盤構築を経験できます】
最新のクラウドベースのデータ技術を用いて、様々な銀行システムからのデータ取り込み、複雑なビジネスロジックの適用を行い、経営管理、規制報告、リスク管理、その他多くのアプリケーションの下流システムへのデータ提供を行います】
銀行ドメインにおける高い要求水準に応えるため、データ品質、システム間の照合(Reconciliation)、時間的制約のあるデータ処理、完全なトレーサビリティなど、複雑なデータエンジニアリングの課題に取り組むことになります】
このミドルレベルのポジションでは、シニアエンジニアやテクニカルリードと連携して複雑な問題に関する指導を受けながら、自律度を高めてデータパイプライン開発に取り組んでいただくことが期待されます】
開発体制: 銀行業界のパートナーと緊密に連携しながら、少人数のアジャイルなチームで運営しています】
自社データプラットフォームチームは急速に拡大しており、年内にデータエンジニア体制を目指しています】
仕事のやりがい
・得られる経験: 当社では、皆様の参画を心待ちにしています】
銀行システムという社会的影響力の大きい領域において、最新のデータレイクハウスアーキテクチャを用いた大規模なデータ基盤構築を経験できます】
必要スキル
【必須スキル】 データエンジニアリングまたはアナリティクスエンジニアリングにおける経験、SQLの高い習熟度およびPythonの実務知識、Databricks、dbt、または類似のツールを使用したデータパイプライン構築のハンズオン経験、AWSおよびそのオブジェクトストレージの経験、データモデリングの概念(ディメンショナルモデリング、ファクト/ディメンションテーブル)の理解、データ品質の検証およびテストの経験、データパイプラインの問題に関するデバッグおよびトラブルシューティング能力、バージョン管理(Git)の経験およびCI/CDの概念に関する基本的な理解、基本的なデータガバナンス(アクセス制御および監査ログ)の理解、コンピュータサイエンス、工学、数学、または関連分野の学士号、もしくは同等の実務経験】
【歓迎スキル】 金融サービス、フィンテック、または規制産業での経験、銀行ドメインの概念に関する基礎知識:勘定系(Core Banking)、決済、または規制報告、規制環境下(FISCガイドライン、GDPR、APPI)でのデータプラットフォーム経験、DatabricksプラットフォームまたはAWSネイティブデータサービスのハンズオン経験、パフォーマンスチューニングの経験:パーティショニング戦略、ファイル形式、クエリ最適化、Python(FastAPI、Flaskなど)を使用したREST APIの構築経験、ストリーミングデータパイプライン(Kafka、Kinesisなど)の知識、Terraformの基本的な経験、BIツール(QuickSight、Tableau、Looker、PowerBI)の経験、データ可視化およびダッシュボード設計の経験、資格取得への関心(AWS Certified Data Analytics、Databricks認定)、AIの開発経験もしくはAIツールを使用した開発経験】
【求める人物像】 優れた問題解決能力および適度な自律性を持って業務に取り組む能力、良好なコミュニケーションスキルおよび業務がブロックされた際に質問できる姿勢】
【求める語学力】 日本語要件:ビジネスレベル(流暢、クライアントとの日本語でのコミュニケーションが可能)、英語要件:ビジネスレベル(ビジネスレベルの英語力)※TOEIC以外にも英語力がわかる資格や経験をお持ちの方はご相談ください】
例:各種英語資格】
※その他、英語力がわかる資格や経験については応相談】
※ビジネスレベルの英語力をお持ちでない方については選考の過程で当社指定の試験を受験いただきます】
(原則、一次面接後を想定)】
【技術スタック】 クラウドインフラ:AWS(東京リージョンのプライマリクラウドプラットフォーム)、S3(VPCネットワーキングによるセキュアな接続を備えたデータレイクストレージ)、AWS IAM(セキュリティおよびアクセス管理)】
データレイクハウスアーキテクチャ:Delta Lakeを使用した最新のレイクハウスアーキテクチャ(ACIDトランザクション、タイムトラベル、スキーマ進化に対応)、分析に最適化されたカラムナストレージ形式(Parquet)、段階的なデータ精製のためのBronze/Silver/Goldメダリオンアーキテクチャ、クエリパフォーマンスのためのパーティション戦略およびZ-ordering、Unity Catalogによる一元的なガバナンスとメタデータ管理】
オーケストレーション&処理:Databricks Workflowsによるマネージドワークフローオーケストレーション、Databricksクラスタ上のApache Sparkによる分散データ処理、コスト最適化のためのサーバーレスコンピュートおよびオートスケーリングクラスタ、Databricks AutoLoaderを使用したストリーミングおよびバッチ取り込みパターン】
データ変換:dbt(data build tool):SQLベースのアナリティクスエンジニアリング、Delta Live Tables:データ品質機能を内蔵した宣言的ETLパイプライン、データ変換のためのSQLおよびPython、効率化のための増分マテリアライゼーション戦略】
クエリ&アナリティクス:Databricks SQLによる高性能アナリティクスクエリ、変動するワークロードに対応するサーバーレスおよびオートスケーリングSQLウェアハウス、変動するワークロードに対応するコンピュートのオートスケーリング、クエリ結果のキャッシュと最適化、下流のコンシューマーへデータを提供するためのREST API】
データ品質&ガバナンス:Delta Live Tables ExpectationsおよびGreat Expectationsによる自動化されたデータ品質管理、システム間の照合(Reconciliation)および検証ロジック、Unity Catalogを使用したカラム/行レベルのセキュリティによるきめ細かいアクセス制御、規制遵守のための自動データリネージ追跡、監査ログおよびデータ保持ポリシー】
ビジネスインテリジェンス:Amazon QuickSight および/または Databricks SQL Dashboards、エンタープライズBIツールとの統合(Tableau, PowerBI, Looker)】
【使用ツール】 バージョン管理:GitHub、CI/CD:GitHub Actions、Infrastructure as Code:Terraform、モニタリング:Databricks monitoring, AWS CloudWatch integration、AI開発支援:Claude Code, GitHub Copilot, ChatGPT】
【歓迎スキル】 金融サービス、フィンテック、または規制産業での経験、銀行ドメインの概念に関する基礎知識:勘定系(Core Banking)、決済、または規制報告、規制環境下(FISCガイドライン、GDPR、APPI)でのデータプラットフォーム経験、DatabricksプラットフォームまたはAWSネイティブデータサービスのハンズオン経験、パフォーマンスチューニングの経験:パーティショニング戦略、ファイル形式、クエリ最適化、Python(FastAPI、Flaskなど)を使用したREST APIの構築経験、ストリーミングデータパイプライン(Kafka、Kinesisなど)の知識、Terraformの基本的な経験、BIツール(QuickSight、Tableau、Looker、PowerBI)の経験、データ可視化およびダッシュボード設計の経験、資格取得への関心(AWS Certified Data Analytics、Databricks認定)、AIの開発経験もしくはAIツールを使用した開発経験】
【求める人物像】 優れた問題解決能力および適度な自律性を持って業務に取り組む能力、良好なコミュニケーションスキルおよび業務がブロックされた際に質問できる姿勢】
【求める語学力】 日本語要件:ビジネスレベル(流暢、クライアントとの日本語でのコミュニケーションが可能)、英語要件:ビジネスレベル(ビジネスレベルの英語力)※TOEIC以外にも英語力がわかる資格や経験をお持ちの方はご相談ください】
例:各種英語資格】
※その他、英語力がわかる資格や経験については応相談】
※ビジネスレベルの英語力をお持ちでない方については選考の過程で当社指定の試験を受験いただきます】
(原則、一次面接後を想定)】
【技術スタック】 クラウドインフラ:AWS(東京リージョンのプライマリクラウドプラットフォーム)、S3(VPCネットワーキングによるセキュアな接続を備えたデータレイクストレージ)、AWS IAM(セキュリティおよびアクセス管理)】
データレイクハウスアーキテクチャ:Delta Lakeを使用した最新のレイクハウスアーキテクチャ(ACIDトランザクション、タイムトラベル、スキーマ進化に対応)、分析に最適化されたカラムナストレージ形式(Parquet)、段階的なデータ精製のためのBronze/Silver/Goldメダリオンアーキテクチャ、クエリパフォーマンスのためのパーティション戦略およびZ-ordering、Unity Catalogによる一元的なガバナンスとメタデータ管理】
オーケストレーション&処理:Databricks Workflowsによるマネージドワークフローオーケストレーション、Databricksクラスタ上のApache Sparkによる分散データ処理、コスト最適化のためのサーバーレスコンピュートおよびオートスケーリングクラスタ、Databricks AutoLoaderを使用したストリーミングおよびバッチ取り込みパターン】
データ変換:dbt(data build tool):SQLベースのアナリティクスエンジニアリング、Delta Live Tables:データ品質機能を内蔵した宣言的ETLパイプライン、データ変換のためのSQLおよびPython、効率化のための増分マテリアライゼーション戦略】
クエリ&アナリティクス:Databricks SQLによる高性能アナリティクスクエリ、変動するワークロードに対応するサーバーレスおよびオートスケーリングSQLウェアハウス、変動するワークロードに対応するコンピュートのオートスケーリング、クエリ結果のキャッシュと最適化、下流のコンシューマーへデータを提供するためのREST API】
データ品質&ガバナンス:Delta Live Tables ExpectationsおよびGreat Expectationsによる自動化されたデータ品質管理、システム間の照合(Reconciliation)および検証ロジック、Unity Catalogを使用したカラム/行レベルのセキュリティによるきめ細かいアクセス制御、規制遵守のための自動データリネージ追跡、監査ログおよびデータ保持ポリシー】
ビジネスインテリジェンス:Amazon QuickSight および/または Databricks SQL Dashboards、エンタープライズBIツールとの統合(Tableau, PowerBI, Looker)】
【使用ツール】 バージョン管理:GitHub、CI/CD:GitHub Actions、Infrastructure as Code:Terraform、モニタリング:Databricks monitoring, AWS CloudWatch integration、AI開発支援:Claude Code, GitHub Copilot, ChatGPT】
就業場所
就業形態
正社員
企業名
上場Fintechクラウド型ERPソフト開発・サービス提供企業
企業概要
インターネットサービス開発/運用
・家計簿アプリ
・クラウド会計ソフト
・家計簿アプリ
・クラウド会計ソフト
企業PR
業務カテゴリ
組織カテゴリ
備考
応募ありがとうございました。コンサルタントからご連絡します
応募出来ませんでした。恐れ入りますがもう一度やり直してください
気になるに登録しました
気になるに登録出来ませんでした。恐れ入りますがもう一度やり直してください