個別相談会で
情報収集・悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を実施しています。
個別相談会で情報収集・
悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を
実施しています。
クチコミAI分析サービスの運用保守(データ基盤構築など)をお任せいたします。
クチコミAI分析サービスの運用保守をご担当いただきます。
本サービスは Google Map に投稿されるクチコミを自動収集・分析・要約し、顧客の声を 集客、売上に貢献する資産 へ変換するプロダクトです。
サービスの安定稼働を最重要ミッションとし、プロダクトを支えていただける方を募集しています。
主な業務内容は下記を想定しております。
・システム設計(アーキテクト):安定稼働を支えるための構成検討・改善
・システム運用:新規契約開始に伴う設定業務やデータ更新作業等の日々の運用対応
・システム改善:LLM のプロンプト改善や動作チューニングなど、既存モデルの品質向上に向けた調整
・問い合わせ対応:ユーザーからの技術的問い合わせ対応、必要に応じた軽微な改修
・バグ修正・小規模改修:安定稼働のための不具合修正や既存機能改善
※新規機能開発よりも、既存システムの運用安定化を重視したポジションです。
・SQL開発の実務経験
・クラウドデータプラットフォーム(GoogleCloudやAWS等)でのデータマート開発経験
・要件定義~運用までの一貫した開発経験
・業務フローやデータモデルを整理し、適切なシステム設計を提案できるスキル
・ETL/ELTなどデータパイプラインの開発経験
・Looker Studio の使用経験
クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。
データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。
【具体的な業務内容】
分析用データ基盤/ワークフローの開発・保守運用(Azure Databricks / dbt / Airflow)
データマートの開発・保守運用
データに関わる各種調査
・SQLを用いた分析用データマートの開発(要件定義、設計含む)・運用経験3年以上
・クラウドDWH利用経験3年以上(Azure Databricks、Amazon Redshift、BigQuery)
・大量データのハンドリング経験
・Web システムに関する基本的な理解と業務開発経験
電気機器メーカー向けデータ統合基盤開発
基本設計書から詳細設計の作成(バッチ・ETL設計)
ETLツールを用いた実装、テスト計画書作成とテスト実施
AWS(Amazon EventBridge、Lambda、 Step Functions、Athena、S3)
・Python(AWS Lambda)での設計開発経験
・AWS環境下でのデータ分析関連の案件
・ETLツールを用いた設計開発経験
・Shellでの経験
大規模グルメサービスにおける新設の検索基盤チームへのご参画となります。
業務の進め方としては、検索案件について要件定義段階から関わり、
企画や他の開発チームと連携しながら要件を実現していきます。
検索体験や検索施策の成否は検索基盤によって決まると言っても過言ではなく、
案件の初期段階から深く関わり、その実現のためにエンジニアの立場から積極的にアイデアを出していくことが重要となります。
【具体的な業務内容】
・検索関連プロジェクトにおける要件定義からリリース後の運用・保守までを包括した検索プラットフォームの開発
・Apache Solr の導入、運用管理、およびパフォーマンス最適化
・全文検索エンジンへのデータインデックス処理と、検索エンジンとのインターフェース設計・保守
・CI/CD やモニタリングなど、検索インフラの運用基盤の構築
・Elasticsearch や Vespa など、Apache Solr 以外の全文検索エンジンの調査・検証および導入対応
・技術的な課題の解決や、新しい価値の創出を目的としたソリューションの企画・提案
・高トラフィックおよび大規模データを前提としたシステム構成の設計
・システムの継続的な安定稼働を目的とした技術的負債の整理・解消
・Solr, Elasticsearchなどの全文検索エンジンを用いた設計・開発・構築・運用の経験
┗特に設計の経験を重視しております。
・業務時間外のオンコール対応が発生した場合にも対応いただける方
広告配信データを分析し、インサイトを導出するAI分析機能の開発を担当します。
データ処理、分析ロジックの実装、AIエージェントとの統合を組み合わせた高度なシステムの設計・実装を行います。
【具体的な業務内容】
■データ分析基盤の開発
・BigQuery、ClickHouseを用いた広告配信データの集計・加工処理
・Pythonによる分析アルゴリズムの実装
・分析ロジックのAIエージェントへの統合
■AIエージェント機能の開発
・社内独自のAIエージェントフレームワークを用いた新機能開発
・プロンプトエンジニアリングと分析ワークフローの設計
・マルチエージェントシステムによる複雑な分析処理の実装
■API・システム統合
・OpenAI API, Anthropic Claude APIとの統合
・GCP (Cloud Run, Cloud Functions) 上でのサービス開発
・パフォーマンスとメンテナンス性を考慮した設計・実装
・Python開発経験: 3年以上
・データ分析・可視化の実務経験
└SQLを用いたデータ集計・加工経験
・GCPでの開発・運用経験
・日本語もしくは英語 (どちらかビジネスレベル可)
・週次定例会および常駐対応を通じて、AIデータ基盤および関連システムに関する技術支援を実施。
・現在検討中のデータプラットフォームを起点に、クラウドインフラ(Azure)やアプリケーション構築・運用の設計などを含むITアーキテクチャ全体を対象にレビュー及び助言を行う。
・定例・常駐で得た情報を整理し、技術的なレビュー・助言を行うとともに、その内容を反映した週次報告資料を成果物として作成する。
期待する役割
・データ基盤を中核としつつ、システム全体のアーキテクチャを俯瞰し技術方針をリードいただく。
・実装作業ではなく、設計レビューや技術方針の検討が主な役割。
・幅広い技術知見を活かし、ITアーキテクチャ全体を俯瞰的に支援いただく。
・AIに関する専門知識は必須ではないが、AI・非構造データを含むパイプラインを考慮した基盤設計ができること。
・Microsoft Azureにおけるデータ基盤および関連ITアーキテクチャの設計・構築経験
・クラウドアーキテクチャ全般(ネットワーク、セキュリティ、運用設計)の理解
・Databricksの導入・運用・活用経験
・DatabricksにおけるAI活用技術への知見
・データモデリングおよびデータベース設計の知識(RDBMS / NoSQL の理解)
・Python・SQLなどを用いたデータ処理スキル
・クライアント対応におけるコミュニケーション能力
・情報整理・資料作成スキル(週次報告資料など)
QlikView/QlikSenceで作成された帳票について現行調査を実施し、Databricksへの移行を実施いただきます。
・現行帳票の調査
・移行方針検討
【スケジュール】
2025年11-12月:現行調査
2026年1月:設計
2026年2-4月:移行
・チームでのソフトウェア開発経験
・QlikView/QlikSenceの開発経験
・移行設計経験
大手製造業のグループ会社にERPを導入しており、各社に五月雨で導入する長期プロジェクトになります。
2021年から対応開始し今後1-2年、半年くらいの単位で各社に導入、直近では年末リリースETLによるデータ連携機能の開発を主とするプロジェクトです。
ERPとのI/F部分(見積受注など)をEAIツール/DataSpiderなどを使用して開発していきます。
まずはETL開発スキルを習得頂きつつ、プロジェクトリーダ/開発リーダの補佐を通してお客様との折衝を覚えて頂きたいと考えております。
その後社員化された際は、リーダとしていくつかの案件をリードして頂きたいです。
・システム開発(基本設計~総合試験)の経験(数年)
・開発チームリーダー/サブリーダーの経験(数プロジェクト)
損害保険会社のシステムリニューアルにおいて、Pythonを用いたデータ移行ツールを開発します。
データマッピングを実施し、決まったフォーマット(フラットファイル)への移行を担当いただきます。
データエクスポート/ロード処理は別チーム対応のため、本案件のスコープ外です。
・移行プロジェクト経験(特にデータマッピング経験)
・Pythonでの開発経験
・中堅以上の技術力を有するプログラミングスキル
※未経験の言語にも一定期間でキャッチアップ可能な方
大手通信系企業の社内会計処理システムのリプレース案件です。
既存システムのリプレースにおいて、アーキテクチャから検討できる方を募集しています。
バッチ処理で、ApachFlinkやHadoopDBを使用することを検討しており、アーキテクチャ設計や検証(Poc)できる人材を探しております。
リプレースに先立ち、コアとなるバッチ処理の一部機能をApache Flink、Hadoopを適用して一部移行(実装)し、既存システム全体のFlink、Hadoopに置き換えた際の動作担保、性能検証を行います。
その後は、リプレースの規模感や、要件整理のためのPoCを行う予定です。
・既存機能の把握
・一部機能の実装(Flinkの適用)
・上記実装したものの動作するためのインフラ構築
・動作検証、性能検証
・システムリプレイスなどでの、アーキテクチャ設計や検証(PoC)の経験
・バッチ処理の実務経験
・Apache FlinkやHadoopの経験
・Javaの経験・知見
・DB(postgreSQL)の経験・知見
・クラウドサービス(AWS/GCP/Azure)の経験・知見
500万DL越えの大人気お買い物アプリにおけるデータ基盤エンジニアを募集いたします!
現在PdMやマーケ担当がデータ分析を行い、ビジネス上の意思決定を行っています。
しかしながらサービスのグロースが進み、データの種類は増え、非機能要件が高度化し、社内での分析基盤のニーズや重要性が高まっております。
現在のデータ基盤開発の専任者いない状況を変えるべく、一人目のデータ基盤エンジニアを探しております。
データを通じてサービスをさらにグロースしていくにあたり、サービスの成長を一緒に推進していただけるような方を探しております。
0→1、1→10の開発において上流から下流まで幅広くご支援いただける方がマッチいたします。
【お願いしたいこと】
データエンジニアリング領域を一気通貫で支えていただける方を募集しております。
・データ活用ニーズの明確化〜収集データの仕様決定〜モデリング
・データパイプラインの設計・構築
・非機能要件定義(リアルタイム性、正確性、セキュリティ、ガバナンスなど)と設計・実装
・BIツールの設定・構築〜分析業務(一部)
・監視やモニタニング等含めた運用基盤の構築と実運用
・機械学習利用に向けたデータ基盤整備
【開発環境】
・DB:BigQuery、Dataform、Spanner
・Observability:CloudMonitoring,CloudLogging
・DevOps:Terraform, GitHubActions
・ツールなど:LookerStudio,GoogleSpreadSheets,GitHub,Slack,Notion
詳細の情報については面談の際にお話しさせていただきます!
・データ基盤の設計・構築・保守・運用の経験3年以上
・データモデリング経験、高度なSQL構築能力
・データ基盤の非機能要件を定義し、設計・実装した経験
・Dataform,dbt,BigQueryなどの利用経験
・Github,Terrafrom,CI/CD,プログラミング言語(言語問わず)のソフトウェア開発経験
データ利活用・DX支援事業において、
データ基盤構築やSaaS開発、生成AI関連開発などを担当いただきます。
Snowflake、dbt、Terraformなどを活用したデータ基盤開発や
ETLパイプライン設計、構築、運用など幅広い領域に関わります。
・DWHの開発経験(Snowflake, BigQuery, Redshiftなど)
・SQLを用いたデータ加工経験
・ETL/ELTパイプライン構築経験
・TerraformやCloudFormationの実務経験
・Gitの実務経験
データ処理パイプライン構築支援を行っていただきます。
・Apache Flinkを用いたデータ処理パイプラインの設計・実装
・リアルタイムストリーム処理のチューニング
・ETL処理設計/品質監視体制の構築
・大規模データ処理の最適化とパフォーマンス改
・Flinkを用いたデータ処理パイプライン実装経験
・分散処理/ストリーム処理の設計・実装経験
APM統合のためのデータクレンジング、マスターデータ設定、医療データベース(Ultmarc)や商用データソースを含むデータセットの運用準備を行います。
データ統合・管理、クロスファンクショナルチームとの連携、システム間(Salesforce、SQL Serverなど)のデータマッピング・変換作業をご担当いただきます。
【開発環境】
SQL、SQL Server、Ultmarcデータベース、Salesforce、Power BI (尚可)
【フェーズ】
データクレンジング、マスターデータ管理、データ統合、運用準備
・マスターデータ管理を精密に行える注意力と迅速にPJ対応を行える自走力
・SQLおよびSQL Serverを用いたデータ整理の経験
・データクレンジングおよびマスターデータ管理の経験
・データ構造、ETLプロセス、データガバナンスに関する知見
ヘルスケア業界のクリニック連携システムのデータ分析基盤構築をご担当いただきます。
データの分析基盤をGCPにて構築する案件です。
BigQuery内でデータレイク、データウェアハウス、データマートの構築や各種DBからのデータパイプライン構築に携わっていただきます。
・BigQueryを利用したデータ分析基盤の運用経験
・dbtの実務経験
・データウェアハウスにおけるデータモデリングのご知見
ヘルスケア業界のクリニック連携システムのデータ分析基盤構築をご担当いただきます。
データの分析基盤をGCPにて構築する案件です。
BigQuery内でデータレイク、データウェアハウス、データマートの構築や各種DBからのデータパイプライン構築に携わっていただきます。
・BigQueryを利用したデータ分析基盤の運用経験
・dbtの実務経験
・データウェアハウスにおけるデータモデリングのご知見
BigQuery内でデータレイク、データウェアハウス、データマートの構築や各種DBからのデータパイプライン構築に携わっていただきます。
・BigQueryを利用したデータ分析基盤の運用経験
・dbtの実務経験
・データウェアハウスにおけるデータモデリングのご知見
美容系サービスを展開している企業にてデータを扱えて、
テンプレートを使って仕組みを作れる方を募集しています。
データ活用と実装の両面に強みを持ち、マーケティング施策を自ら構築・推進できる方。
サーバサイドのテンプレートエンジンを用いた開発経験を活かし、動的コンテンツや
パーソナライズ施策の実装ができる方が望ましいです。
また、MAツールやCRMにおけるデータ構造を理解し、ユーザー属性・行動データをもとに効果的な施策設計が可能な方や
DWHとMAツールを繋ぐデータパイプラインの構築経験を有し、SQLによるデータ抽出・加工や
ETLツールを用いた運用を実践的に行える方が理想です。
・サーバサイドのテンプレートエンジンを用いた開発・実装経験
・MAツールやCRM、Webサービス等におけるデータ構造の理解
・DWHとMAツール間でのデータ連携・実装経験
・新データ基盤の設計・構築(AWS/BigQuery/Snowflake等)
・ETL/ELTパイプラインの改善・最適化
・データモデル設計/マルチテナント対応
・データガバナンス、セキュリティ設計・運用、コンプライアンス対応
・全社業務データ/IoTデータ/行動データの統合管理
・BIツール連携設計
・データ基盤運用・最適化、チーム技術育成・レビュー
【工程】
要件定義、設計、構築、運用、最適化、技術リード
【開発環境】
言語:Python/Go/Java
クラウド:AWS/GCP/Snowflake
IaC:Terraform/CloudFormation/CDK
DWH:BigQuery/RDBMS
その他:Kafka/Pub/Sub/Spark/dbt/Trocco
・クラウド(AWS/GCP/Snowflake等)での大規模データ基盤構築・運用経験
・Terraform/CloudFormation/CDK等によるIaC本番運用経験
・RDBMS/SQLを用いたテーブル設計・ETL開発経験
資金調達なども行なっている市場リサーチ・企業リスト作成・決裁者アプローチを一気通貫で実現する
営業データプラットフォームを提供している企業にて、Pythonデータスクレイピングエンジニアとして、
サービスのコア技術となるデータ収集・可視化を担当していただきます。
概要として、特定のウェブサイトからデータを効率的かつ正確に収集するスクレイピングプログラム、
収集したデータを可視化・管理するWebアプリケーションの開発とメンテナンスを担当していただきます。
またデータ基盤構築に伴いリアーキテクチャも検討中のため、アーキテクチャや保守/運用設計も担当して頂きます。
・Python3での実務経験が3年以上
・Webスクレイピングの実務経験
┗中・大規模(数万〜数百万)なスクレイピングのご経験
・SQLの知識および実務経験
・MVCモデルのWebフレームワークの実務経験
・AWS(EC2, RDS)の知識および構築経験
・モダンフロントエンド技術(React.js)の知識および実務経験
・REST APIを用いた実務経験
【業務内容】
◇データパイプラインの構築:以下の機能を持つパイプラインを構築します。
-各種データをBigQueryに集約する
-BigQuery等のGoogle Cloud上のサービスから他システムへデータを配信する
◇データマートの作成
-BigQueryに集約したデータを基に、用途・目的に応じたデータマートの作成、及び作成の自動化を行います。
◇データの可視化
-Google Kubernetes Engine上に構築したRedashで、データの可視化を行います。
◇データの活用
-BigQueryに集約したデータを基に、レコメンド機能等の追加開発や運用改善を行います。
・Google Cloud環境で下記いずれかの実務経験(合計 5年以上)
・ビッグデータを活用したレコメンド機能の設計・開発および運用経験
・DWH、DataPipeline、ELT等の設計・開発および運用経験
・SQLの利用経験(3年以上)
・Pythonの実務利用経験(1年以上)
・運用業務
└セキュリティ点検(四半期ごとに利用実態の確認)
└問い合わせ対応(データハブ利用に関する問い合わせへの対応)
・新規データ投入業務
└データハブ(Snowflake)における新規データ拡充対応
└データ投入方式の設計・検討・実装
・Snowflakeの実務経験1年以上
└Snowflakeにおける設計・実装の経験
金融機関向けデータ/AI基盤におけるデータ基盤部分の設計および実装を行なっていただきます。
・Data層、AI層(ChatGPT等)、Agent層の各層で目指すべきアーキテクチャを、顧客の現行のシステム状況を踏まえて更新
・AI/データ基盤における各機能の詳細定義
・今後のAI導入、インフラ導入に複数ベンダーが担当することを想定し、統一ルールのもと開発の標準化、効率化を行えることを目的としたガイドラインの作成
└弊社で実施する他プロジェクトでは一部実際の構築を行うため、構築を行った部分については、その内容を踏まえガイドラインに反映するため、弊社の他エンジニアとコミュニケーションをとって頂きながら進めて頂く必要があります。
└構築しない部分については、机上で検証しガイドラインに反映
・クライアントとの会議への出席、弊社内会議への出席
・Azure, AWS, GCPなどのパブリッククラウドでのデータ基盤の設計・構築経験
・モダンなデータスタックの理解と、実導入・運用・活用経験(下記または同等の技術スタック)
└ETL関連:Fivetran, dbtなど
└DWH/プラットフォーム:Snowflake, Databricksなど
(特にSnowflakeでの構築経験があると望ましい)
・RDBMSやNoSQLを用いたデータモデリングおよびデータベース設計経験
・Python, SQLなどによるデータ処理の経験
社内業務(人事・労務・経理など)の効率化・自動化のためのデータ連携・システム連携の開発業務をお任せいたします。
具体的には、
・BigQueryに各種データを連携してデータ分析・集計環境を構築。
・BigQueryの分析・集計結果を各システムに配信。
・連携元/配信先のシステムは、Salesforce、AWS S3/RDS、Googleスプレッドシート、freeeプロダクトのWeb-APIなど。
・プログラムによるデータ分析・加工処理の開発経験(言語問わないがPython, JavaScriptが良い)
・SQLによるデータ分析・加工処理の開発経験
・Terraformによるインフラ構築経験
・Github
・Github Actions
・下記の開発環境での業務経験
└Google Cloud BigQuery, Cloud Runなどの主要サービス
└AWS EC2, RDS, S3などの主要サービス
データマート作成およびBIツールによる可視化の支援を主にご担当頂きます。
【工程】
要求分析・要件整理~結合試験、保守運用
・BIツールを使用した開発経験(Tableau、PowerBI) 3年以上
・クラウドデータプラットフォーム(GCP,AWS等)でのデータマート開発経験
・要件定義から運用まで一貫した開発経験
・業務フローやデータモデルを整理し、適切なシステム設計を提案した経験
某メーカーのDX案件における、マスタデータ管理・データ連携システム開発を行うPJです。
データ連携担当ポジションでは、基幹業務システムとデータ基盤とのデータ連携基盤の設計・開発を実施します。
RestAPIの設計開発にあたりMulesoftを利用、RAML形式でAPI定義を行う方針です。
9月から11月まで基本設計を行い、12月以降は詳細設計工程を予定しています。
・RestAPI設計製造経験
・何かしらのデータ連携ツールの利用経験
・顧客折衝経験
基盤の運用改善および次世代データ基盤の要件定義、設計、構築を担当して頂きます。
〈具体的な業務内容〉
・現行基盤の課題整理および改善方針の策定
・次世代データ基盤の要望・要件整理・設計
・技術・ツール選定、比較検討
・パフォーマンスチューニング
・キャパシティプランニング
・CI/CDパイプラインの改善
・新規パイプラインの構築、旧パイプラインの閉鎖
※社内のデータ基盤ユーザーとのコミュニケーションが発生。
※リーダー、メンバーおよび関係各所に対する実装方針・技術選定結果などの説明が発生。
※会議におけるファシリテーションなどが発生。
・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築運用経験
・Lambda、Cloud Run Functions、BigQuery、Redshiftなどを使用する開発経験
・TableauやLooker StudioなどのBIツールの利用経験
・IaC(terraform)を利用したインフラリソースの管理経験
基盤の運用改善および次世代データ基盤の要件定義、設計、構築を担当して頂きます。
■具体的な業務内容
・現行基盤の課題整理および改善方針の策定
・次世代データ基盤の要望・要件整理・設計
・技術・ツール選定、比較検討
・パフォーマンスチューニング
・キャパシティプランニング
・CI/CDパイプラインの改善
・新規パイプラインの構築、旧パイプラインの閉鎖
※社内のデータ基盤ユーザーとのコミュニケーション
※リーダー、メンバーおよび関係各所に対する実装方針・技術選定結果などの説明
※会議におけるファシリテーションなど
・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築/運用経験(Lambda、Cloud Run Functions、Cloud Storage、 S3、Compute Engine、Cloud SQL, BigQuery、EMR、RDS、Redshift、 Athena、Airflow、Dataformなどを使用する開発経験)
・データベースの管理経験
・データモデリングの経験
・データベースの最適化、キャパシティプランニングの経験
・TableauやLooker StudioなどのBIツールの利用経験
・並列分散処理に関する基本的な知識
・Linux、Docker、ネットワークの基礎知識
・IaC(Terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
基盤の運用および改善業務を担当して頂きます。
■具体的な業務内容
・ユーザーからの依頼および問い合わせ対応
・テーブル・ビュー追加/改修作業
・データ閲覧権限管理作業
・データパイプライン運用/改修作業
・Google Cloud設定変更作業
・技術調査/検証作業
・その他運用改善に伴うツール開発/改修業務
※社内のデータ基盤ユーザーとのコミュニケーション
・Pythonもしくはオブジェクト指向、スクリプト言語の経験
・SQLの実用的・高度な知識とリレーショナル データベース、クエリ作成 SQL の操作経験
・Linux、Docker、ネットワークの基礎知識
・IaC(terraform)を利用したインフラリソースの管理経験
・Github,Gitを利用したコード管理・チーム開発経験
・3年以上のデータ分析基盤に関する業務経験
・Google Cloudでのデータ基盤運用経験
DX推進SaaSの開発に携わっていただき、主にデータ領域の業務を行っていただきます。
【業務詳細】
・データ分析基盤の最適なモデリングの設計/開発
・データ分析基盤の品質をモニタリングし、維持するための仕組みの構築
・社内向けのデータプロダクトの開発運用
・Terraform または CDK/CDKTF などのIaCツールを用いた本番環境の構築・運用経験
・インフラのコード化における設計原則の理解
・Snowflake または同等のDWH(BigQuery、Redshift等)の設計・運用経験
・ETL/ELTパイプラインの設計・実装経験
・データオーケストレーションツール(Airflow、Dagster、Prefect等)の運用経験
・AWS環境での開発経験
・ ECS/Fargateやlambdaなどのサーバーレス環境の構築・運用経験
・ECS/Fargateやlambdaなどのサーバーレス環境の構築・運用経験
・本番環境でのトラブルシューティング能力
・複雑なSQLクエリの作成・最適化能力
・dbt または同等のデータ変換ツールの使用経験
![]()
![]()
![]()
![]()