個別相談会で
情報収集・悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を実施しています。
個別相談会で情報収集・
悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を
実施しています。
印刷EC事業におけるコーポレート・データエンジニアを募集しております。
各事業および全社のデータ分析基盤(DWHとデータパープライン)の設計・構築・運用を行っていただきます。
業務内容は下記になります。
・各種システムからのBigQueryへのデータパイプラインの構築・運用
・関連部署や関連チームとのコミュニケーションが必要になります
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・現行システムから新システムへのデータ移行
・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験
・BigQueryの利用経験(1年以上必須)
・DWHへのデータパイプラインの運用経験
・データベースに関する知識とSQLの利用経験
・Python開発経験
経営管理課題を解決する管理会計SaaSの、データ基盤構築や運用フロー構築と言った上流から携わっていただく案件となっております。
ビジネスの現場で扱っている非財務データを用いた予実管理が必須となっており、CRM・SFA・経費・請求など各ツールとの連携を実現し、管理会計に必要なデータが簡単に収集できるような仕組みが必要となっています。
そこで、解像度の高い管理会計の実現に向けて、社内のあらゆるデータ(財務、および非財務の情報)を収集し、
一元管理できるデータ基盤の構築をお任せします。
・大規模データのデータ基盤構築経験
・データの収集、保存、処理などの仕組み構築、運用経験
・Airbyte・FivetranなどのETL/ELTツールの導入・運用経験
・データエンジニア、またはインフラエンジニアとして、AWSまたはGoogle Cloudを使ったシステム設計・開発・運用経験 1年以上
・ネットワーク/IP/データベースの知識
求人システムやそれに関連するシステムに関するデータを連携する基盤構築作業をご担当していただきます。
データ基盤に関する深い知見がある方で且つ開発の経験がある方にはマッチする案件となります。
・Talendによるデータ連携構築経験
・いずれかのDB構築経験
今回はデータサイエンティストとして参画していただきます。
【業務内容】
データ基盤の構築やデータ加工、抽出、ETL部分に携わっていただきます。
・Pythonの経験
・データサイエンティストの経験
・データ分析基盤の構築経験
・データ抽出、加工の経験
・自然言語処理
顧客の提供する各プロダクトからのデータ収集、加工・集計・可視化、
分析結果からの将来予測などをお願いします。
【開発環境】
・インフラ:AWS(Athena、Redshift、Glue、QuickSightなど)
・データベース:RDS(Aurora MySQL)
・ETL:AWS Glue
・BIツール:QuickSight
・言語:Python
・コミュニケーション:Slack、Zoom、Backlog、DocBase
・データベースを活用したシステムの設計・開発経験(2年以上)
・AWSのサービス(AWS Glue、Quicksight など)を活用したシステム構築経験
エンタメ系企業にて、データ分析基盤構築に携わっていただきます。
最新のデータ基盤の設計・開発、データ品質の向上、データセキュリティの確保など
データ関連の幅広い業務に携わることができます。
・Pythonを利用したバッチの開発・運用経験
・データベースの運用経験、最適なパフォーマンスチューニングの経験
・SQLの知識、テーブル設計、データの保守・運用経験
・AWS等を使用したサービスのインフラ設計・構築・運用
アパレル企業内で下記の作業を行います
プレシーズンの販売計画モデルをシステム実装し、
基幹系のシステムに連携する
技術はPython,shellscript,GCP
<チーム体制>
元請けプロパーマネージャー1名、
リーダ1名
+本案件募集枠1名 3名体制
・基本的なクエリの作成
・Pythonによるデータ加工・機械学習※必須
・お客様に寄り添う心持ち
<バッチ処理実装経験>
下記の経験がある方を募集しています。
・Shellやプログラムをバッチ化した経験の有無
・上記、経験があるのであれば、データ加工部分をいくつかのバッチ化した経験があるか
※プログラムを読んで、どうプログラムを切り分けるかを検討した経験があるか
・バッチ化に伴い、各プログラムでどのようなバグが生じるか、生じた場合は処理を止めるか等の検討(テストケースの検討)経験があるか
・バッチ化に伴い、各プログラムでどのようなメタデータ管理(データに異常があればアラートを出す、止める等)経験があるか
上記をスキルシートに追記いただきたく。
某通信系企業にてデータ基盤で行われているデータ処理の方式を移行するPJへ携わって頂きます。
現行のApache上で行われている処理をAWS Glueなどのクラウドサービスへシフトするなど移行計画、方式の検討段階からご対応頂きます。
■担当工程:
要件定義~テスト
・データ基盤構築や加工処理に関するPJにおける上流工程野経験
・Sparkの経験
・ETLツールの経験
・SnowflakeやAWS(Glue、EMR)の知見
データ分析基盤の構築業務支援をお願いします。
業務内容につきましては、機密情報が多いため、実際にお会いした面談の際に詳細をお伝えいたします。
・担当機能の設計~開発~テストの流れを、責任を持って最後まで遂行できる方
・Pandas ライブラリを利用した ETL 処理に慣れている方
・データソース:csv, parquet, Redshift/RDS table, boto3 APIの経験
・加工処理:カラムの追加/削除、行列抽出、値の置換、四則演算、日付演算等
・アウトプットの書き込み:S3(csv, Parquet, Json), Redshift, RDS
・静的解析ツールのチェック結果に基づいてコードの修正が可能な方(Flake8, mypy)
・ユニットテストを実装できる方(Pytest)
■業務内容
自社サービスを中心としたO2O/OMOプラットフォームサービスのデータエンジニア
・GCP/AWS上で運用しているマイクロサービス群の保守業務
→ 使用しているミドルウェアのアップデート対応
→ 使用しているライブラリ群のアップデート対応
・GCP/AWS上で運用しているマイクロサービス群の運用業務
→ お客様からの問い合わせに対する調査
→ 発生した障害や不具合の調査、修正対応
→ システム負荷軽減やコスト削減などの調査、修正対応
・Pythonを使用した開発・運用の経験(Python3でのご経験は加点ポイントとなります)
・コンテナを利用した開発・運用の経験
・AWS/GCPなどパブリッククラウドでの運用経験
・SQLを使用した開発・運用業務の経験
→ BigQuery/Redshift等のDWHを用いた開発・運用業務の経験
・大規模(高負荷)、高可用性サービスの経験
・Serverless Architectureを使用した開発・運用経験
・1つの現場で、ある程度継続して業務を行われていること
(目安として、3カ月以内に終了が3割以上の場合は、お見送りになる可能性が高いです)
・新規データマートの要件定義
・ユーザの要望を聞いて、新しいデータマートを作成したり
既存の集計フローを自動化することで効率化を図ります
・データマート作成
既存帳票(Excel,CSV)からSQL作成、BIでの可視化
・データのETL処理やETL処理のためのスクリプト・
システム開発運用改善業務
- AWSのGlue・Athena等を使用し、SQL・Pythonでコーディングし、
S3にデータレイク、データマートを構築
- 既存の基盤改修・改善
・データマート日次運用保守業務
①SQL
(Window関数やテーブル結合、副問い合わせを流暢に扱えること)
②Pythonでのデータ分析経験
荷主と運送会社をつなぐマッチングプラットフォーム事業と、荷主向けのオペレーションDXを支援するSaaS事業を運営しており、
14兆円を超える物流業界において、自社ブランド・全国の営業ネットワークと、プロダクトの仕組み・プロダクトを融合し、日本の物流を変革を行なっております。
このプラットフォームが立ち上がってから6年が経過し、SaaSのプロダクト立ち上げを2020年から行なっておりますが、
ただ単に「システム化」するだけではなく、これまでのオペレーションをさらに最適化するため様々な取り組みを行なっております。
この事業を横断したデータ基盤を担当するデータエンジニア職となります。
各事業のデータ分析基盤(DWHとデータパープライン)の設計・構築・運用を行っていただきます。
別チームが運用している基盤の運用を引き継ぎから開始し、その後の運用と信頼性・利便性の向上にコミットいただける方を募集しています!
- 既存のDWH(BigQuery)とデータパイプラインの拡充
- 利用可能なデータの拡充
- データのリアルタイム性の向上
- 将来のデータ基盤戦略の策定とその推進
- 新たなDWHとデータパイプライン(ELT)の設計・構築・運用
- データ分析によるビジネス課題の発見の推進
- データによる課題の可視化
- BIなどを通したモニタリング環境の構築
・1名でのデータ分析業務を担当した経験または現場リーダーとしての経験
・BigQuery、Redshift、Snowflake などのDWH環境の利⽤経験:3年以上
・GCP、AWSなどクラウド環境の利⽤経験:3年以上
・データ分析基盤開発における、ETL処理の理解・経験:3年以上
・データベースに関する知識とSQLの利⽤経験:3年以上
・正規化されたデータをもとに要望にあわせてSQLを⽤いてデータ抽出ができる
商品情報の特性(危険品)の分析や、在庫情報の最適化を目的としたデータ分析ならびに、分析に必要なデータの収集/加工用のツール開発を実施していただきます。
数億件のデータを扱う大規模なデータ分析業務となります。
・自らコミュニケーションを取りに行ける方
・データ分析のロジックが整理できること
・SQLが書けること
・IT関連プロジェクト経験5年以上の方
【案件概要】
「あらゆるデータを、ビジネスの力に変える」をビジョンに掲げる、データテクノロジーカンパニーでの案件です
以下2つの事業を運営しております。
①データ分析基盤の総合支援サービスSaaS
②データテクノロジーに関するコンサルティングを行うソリューションサービス「ソリューションサービス」
【今回お願いしたいこと】
インフラ系のクライアント案件にて、BigQuery, trocco, その他Googleのデータ系サービスを活用したデータ基盤における、
データパイプラインの設計・開発作業を実施するデータエンジニアのポジションを期待しています。
・SQLを用いたクエリ構築・運用経験
・データベースについての基礎的な知識
・DWH製品(BigQuery / Redshift / Snowflake 等)の利用経験
・AWSやGoogle Cloudなど、パブリッククラウド上でのシステムまたはデータパイプライン構築経験
・クライアントワークのご経験がある方
※社内開発エンジニアではなく、SIer、コンサルティング会社の立場での開発・顧客調整ご経験
営業データDWH基盤構築をお願いします。
【業務内容】
・DWHの運用設計
・運用設計書の作成
・DWHの実運用作業、エンハンス対応
・テーブル定義の見直し、改修対応
・プロシージャ開発
・顧客折衝
・SQL開発経験
・プロシージャ開発経験
・DWHの運用設計経験
・DWHの実運用経験
データマーケティングを行っている企業にて開発エンジニアを募集しております。
今回の募集部署では基盤を構築するためのインフラの仕事だけではなく、
データをためる仕組みを開発したり、集計したデータをBIツールなどを使って可視化する開発の仕事もしております。
スキル、要望に応じてポジションをご提案させていただきます。
・一般的な何らかのプログラミング言語を使って、設計、開発、テストを独力で実施した経験がある方
・Oracle、SQLServer等RDBを使ってテーブルの論理や物理設計、開発、テスト、チューニング等を行ったことがある方
・バッチ実行を主としたシステム構築の経験をお持ちの方
【案件概要】
大学システム新規構築PJになります。
某大学で使用するシステムPJでSnowflakeの基本設計~対応可能な方を募集しております。
要件定義はPLと既存参画しているメンバーで行っており、詳細設計から担当いただきます。
長く稼働をいただきたいためSnowflakeをキャッチアップしてもOKの方を募集しております。
・Snowflakeまたは他BIツールでの設計~の経験者
・Snowflakeをキャッチアップしたいという向上心ある方
P.A.I.の研究から生まれた高度なAI要素技術群を活用し、現在6000社以上の企業に導入が進んでいる会議自動文字起こしツールを中心に、
24時間365日無人対応が可能なサービス、チャットオペレーターAIサポートシステム、オンライン会議での多言語コミュニケーションを可能にするサービスなど
あらゆるビジネスに活用可能なAIソリューションを展開し、ローンチから約2年で国内トップシェアまで成長しております。
複数の自社プロダクトの各種サービスをひとつのIDで使用できる統合管理システムを運用しておりますが
今回のポジションは議事録、通話データなどの多様なデータをデジタル化し、統合管理をするデータプラットフォームの構築がメインミッションとなります。
データエンジニアとして、CTO、CSO等と連携しながら、データインテグレーションに関する企画・開発全般をご担当いただきます。
【具体的な業務内容】
・データプラットフォームの企画およびアーキテクチャ設計
・データパイプラインの設計・構築
・データ分析のためのBIの開発・運用
・継続的なモニタリングプロセスの構築・運用
・データサイエンティスト、データアナリストが作成する分析フローの運用改善支援
・顧客データ活用の実態やドメイン知識の理解
・CTO、CSO等と連携し、プロジェクトの目的・方針・計画等の策定 等
<技術環境>
①プロダクト開発部
・言語:TypeScript, Python, Flutter
・フレームワーク:Vue.js, Nuxt.js,Node.js
・DB:Cloud Firestore
・インフラ:AWS, GCP, Azure, Cloud Firebase, Cloud Functions
・ソースコード管理:Bitbucket
・プロジェクト管理ツール:Notion, JIRA
・コミュニケーションツール:Zoom, Slack, Google Workspace
②R&D部門(今回Joinしていただく部署)
・開発言語:Python
・フレームワーク:PyTorch, HuggingFace, SpeechBrain, scikit-learn
・※DB以降はプロダクト開発部と同様
・学歴が専門、短大、高専、大学中退以上の方(高卒の方は基本NG)
・Pythonを含む複数言語(TypeScript等)での開発経験(3年以上)
- TypeScript、SQL、Java、Scalaでの開発経験尚可
・データ基盤および分析基盤などの開発・構築経験(3年以上)
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースのアーキテクチャデザインの実装経験
・ETLやELTの実装経験
・TerraformなどInfrastructure as Codeの運用経験または興味関心
【案件概要】
「あらゆるデータを、ビジネスの力に変える」をビジョンに掲げる、データテクノロジーカンパニーでの案件です
以下2つの事業を運営しております。
①データ分析基盤の総合支援サービスSaaS
②データテクノロジーに関するコンサルティングを行うソリューションサービス「ソリューションサービス」
【今回おまかせしたいこと】
インフラ系のクライアント案件にて、BigQuery,その他Googleのデータ系サービスを活用したデータ基盤における、高負荷処理の非機能検証などを推進いただく想定です。
データまわりプロジェクトリードと、一部データエンジニア的な業務を期待しています。
・SQLを用いたクエリ構築・運用経験
・データベースについての基礎的な知識
・ DWH製品(BigQuery/Redshift/Snowflake等)の利用経験
・AWSやGoogleCloudなど、パブリッククラウド上でのシステムまたはデータパイプライン構築経験
・クライアントワークのご経験がある方
※社内開発エンジニアではなく、SIer、コンサルティング会社の立場での開発・顧客調整ご経験
データ分析ツール開発の提案依頼書(RFP)を作成する業務をお願いします。
分析するツールの開発を担当するベンダー選定のRFP作成を担当していただきます。
【業務内容】
・クライアントとの折衝(PJ成果物への期待値調整や具体的な成果物の説明)
・クライアントの業務理解と現状のシステムの整理
・各社からの提案のフィットアンドギャップ整理
・機能要件、非機能要件、画面要件などの作成
・ベンダーとの折衝、ヒアリング
・データ連携基盤のRFP作成経験が上流よりある方
以下どちらかを満たす方
・DX案件でのRFP作成経験(発注側、コンサル等支援側での経験を問わない)
・DX案件での仕様書作成経験
日本は先進国7か国の中で労働生産性が最下位と言われており、国内の99%が中小企業であるにもかかわらず、
生産性が大企業の半分未満であることから中小企業の労働生産性を変えるため、会計や人事労務をはじめとしたあらゆる業務の電子化・自動化はもちろん、
政府や銀行とAPI連携しAIによる信用スコアリングの算出によるオファータイプの融資を実現、
またオンライン上での新規取引先拡大や取引までシームレスに可能にできる開発を進めています。
今回は本企業にてデータ基盤構築運用業務をになっていただける方を募集しております!
Datelake、DWHの運用のための業務が主になります。
・データ基盤構築のご経験(3年以上)
・AWSの各種サービスの実務経験
・SQLの基本的な構文理解
エンタメ系企業にて、データ分析基盤構築に携わっていただきます。
最新のデータ基盤の設計・開発、データ品質の向上、データセキュリティの確保など、データ関連の幅広い業務に携わることができます。
・Pythonを利用したバッチの開発・運用経験
・データベースの運用経験、最適なパフォーマンスチューニングの経験
・SQLの知識、テーブル設計、データの保守・運用経験
・AWS等を使用したサービスのインフラ設計・構築・運用
【業務概要】
・エンタープライズ様向けにAISaasサービスを展開されている会社様になります。
・具体的には新規事業としてAIを活用した越境ECサイトの立ち上げとして要件定義から携わって頂きます。
・APIやスクレイピングを通じたデータ収集基盤の開発ご経験
・ETL開発のご経験
・EC開発に関するPMのご経験
【案件概要】
アグリテックに取り組むベンチャー企業にて、Webアプリ(自社プロダクト)開発PJや
官公庁からの受託PJ(ビッグデータ分析/画像解析等)で利用するインフラ基盤、データ基盤の構築をお任せいたします。
詳細は面談時にお話しいたします。
【開発環境】
Typescript / Python
redux / atomic design
React.js / Next.js / Django REST framework
PostgreSQL ( PostGIS )
インフラ:AWS( EC2 / EKS / S3 / RDS等 )
Git/GitHub/Slack / Zoom / Discord
・データ分析基盤構築経験3年以上
・データ分析関連サービスの経験
(EC2・Lamda・Redshift・Glue・DateCatalog等)
・Pythonを用いたAWS環境構築経験2年以上
【業務概要】
・エンタープライズ様向けにAISaasサービスを展開されている会社様になります。
・具体的にはデータエンジニアとしてデータプラットフォームの企画およびアーキテクチャ設計や
データパイプラインの設計・構築といった業務に携わって頂きます。
【参画メリット】
・フルリモートですので、ご自身のリラックスできる環境で作業が可能です。
・AIを活用したモダンな開発環境がございますので、今後のスキルアップに繋がりやすいかと存じます。
【就業形態について】
現状、メンバーのほとんどはフルリモートにて業務を行っております。
週に何日かご出社をご希望の際にはご相談ください。
【備 考】
現場チームについては、
様々な分野での経験を持つ少数精鋭のメンバーが集まっております。
・PythonかTypeScriptでの開発ご経験が3年以上
・データ基盤および分析基盤などの開発・構築ご経験が3年以上
・AWS、GCP等の各種クラウドサービスの利用およびスケーラブルなクラウドベースの
アーキテクチャデザイン・実装経験
・ETLやELTの実装のご経験
・TerraformなどInfrastructureasCodeの運用ご経験
・大卒の方
クライアント(HR系)のデータマネージメント部署にてデータ基盤開発実務を担当いただきます。
データマート開発がメインの業務にはなりますが、並行してデータ基盤の移管プロジェクトも進行しておりインフラの設計・実装もご担当いただきます。
・分析用データ基盤の開発・保守運用(AWS・GCP・Azure)
・データマートの開発・保守運用
・開発環境の整備(AWSCodePipeline、AzureDevOps)
・2つ以上のクラウドインフラ利用経験
・OSSのバッチソフトの導入・利用経験(Airflow、Digdag、Embulkなど)
・SQLを用いた分析用データマートの設計・開発・運用経験3年以上
・大量データのハンドリング経験
・Webシステムに関する基本的な理解と業務開発経験
・自ら情報収集を行い、データエンジニアの業務を主体的に進めることができる
某大手不動産会社様のデータ可視化環境の構築を行う為、プロジェクトリーダーとしてご支援して頂きます。
下記サービスを用いて構築予定
Looker Studio(旧Googleデータポータル)/Dataflow/BigQuery/BigQuery Data Transfer Service
・ダッシュボード構築の作業管理
・報告/相談等の顧客折衝
・レポートチームメンバーへの伝達/レビュー
・ダッシュボード構築経験5年以上
・チームリード経験
・要件定義フェーズ経験もしくは顧客折衝経験
【案件概要】
自社プロダクトの開発において、外部プラットフォームからのデータ取得の自動化やデータ基盤の設計をお願いいたします。
スキルに応じて対応できるところをお任せいたします。
・データ分析基盤構築経験
・AWSのデータ分析関連サービスの経験
(EC2・Lamda・Redshift・Glue等)
・Pythonを用いたAWS環境構築経験
【案件概要】
・データ基盤の開発/改修/保守運用
・データ基盤の物理/論理データモデル設計/開発/保守運用
・データ基盤のシステムアーキテクチャの設計
・データパイプライン (ETL) の設計/開発/保守運用
・GCP や AWS などの主なパブリッククラウドサービスにおける開発経験。
・DWHの設計・開発・運用経験
・ETLの設計・開発・運用経験
・SQLの経験