1 - 30/件 全9件
案件の内容
募集職種:Pythonエンジニア 案件詳細: 【企業】 システムの運用・保守、ヘルプデスク・ユーザーサポート、PMO、データ入力、大量出力、情報端末のソフトウェア開発支援および技術支援、携帯端末・Webアプリケーションの品質検証など、ITに関する様々なアウトソーシングサービスをご提供しています。 【業務内容】 外部委託中のETL業務の移管に伴うETL業務の運用引継ぎ、及び改修 【環境】 体制 :5名体制 【その他】 作業場所 :リモートメイン ※必要に応じて紀尾井町に出社あり 作業時間 :10:00~19:00 服装 :ビジネスカジュアル 言語:Python 開発環境・FW: Trino 必須スキル: ・Trino、Python(他言語経験でも可) ・データエンジニア または アナリティクスエンジニア としての業務経験 ・Hadoopなどの大規模データの分散処理技術を用いた業務経験 歓迎スキル: ・Digdag 及び Embulkの利用経験 ※委託料金の精算方法は双方協議の上でご決定 ※支払い=30日サイト(締日~支払いまでの期間) ◆希望面談日時◆ - 第2希望 ●月●日/ ●時~●時 - 第3希望 ●月●日/ ●時~●時 -------------------------------------------------------
求めるスキル
Trino, Python, データエンジニア または アナリティクスエンジニア としての業務経験, Hadoopなどの大規模データの分散処理技術を用いた業務経験
案件の内容
---------------------------------------------------------------------------------------- 【面談希望企業】 ---------------------------------------------------------------------------------------- 開始日 :要相談 頻度 :月20日 (週5日) 内リモート :基本リモート 報酬 : - 税込:¥550,000/月 - 税抜:¥500,000/月 【案件情報】 ========================== 案件名 :データクリーンサービスETL業務開発・運用支援 案件概要 :外部委託中のETL業務の移管に伴うETL業務の運用引継ぎ、及び改修 作業場所 :リモートメイン ※必要に応じて紀尾井町に出社あり(10:00〜19:00) 作業期間 :2025/04/02 〜 2025/06/30 役割 :開発リーダー or メンバ 体制 :5名体制 ==========================
求めるスキル
Trino・Python, データエンジニア または アナリティクスエンジニア としての業務経験, Hadoopなどの大規模データの分散処理技術を用いた業務経験
案件の内容
[プロジェクト概要] サービス関連ログ、サービス関連データをElasticserach及びHadoopクラスタ基盤(オンプレ)及びSplunkへ集約し、 コールセンタの運用改善等のデータ活用を実施しております。 [作業詳細] Splunk上でのダッシュボード開発はツール利用者様にて行われておりますため、 基盤の構築・運用や、Elasticserach及びHadoopクラスタ基盤(オンプレ)及び Splunkへのデータ連携の開発が主なスコープとなります。 データ連携については、Splunk Forwarder、Logstash、Talend(Java)、Pythonを併用しております。 [必須スキル] ・Splunkの利用のご経験(ELKでも可) ・SQL等でのDB操作の業務ご経験 ・shellなどでのスクリプト作成のご経験 ・LinuxベースOS上でのコマンドベースでの業務経験 [尚可スキル] ・データ連携/データ活用案件のご経験 ・Talend、Logstasht等のETLツールでのパイプライン構築経験 ・BIツール利用のご経験 ・OSやミドルウェア等の障害や問題のトラブルシュート経験 ・ベンダー等のサポートへの問い合わせ経験 [稼働開始日] 10月~(長期) 【予算】 ~75万 SES 140h-180h 【場所】 90%程度テレワーク 月1回程度、田町への出社あり 【面談】 Web1回 ※チーム編成上外国籍の方は難しいです。
求めるスキル
[プロジェクト概要] サービス関連ログ、サービス関連データをElasticserach及びHadoopクラスタ基盤(オンプレ)及びSplunkへ集約し、 コールセンタの運用改善等のデータ活用を実施しております。 [作業詳細] Splunk上でのダッシュボード開発はツール利用者様にて行われておりますため、 基盤の構築・運用や、Elasticserach及びHadoopクラスタ基盤(オンプレ)及び Splunkへのデータ連携の開発が主なスコープとなります。 データ連携については、Splunk Forwarder、Logstash、Talend(Java)、Pythonを併用しております。 [必須スキル] ・Splunkの利用のご経験(ELKでも可) ・SQL等でのDB操作の業務ご経験 ・shellなどでのスクリプト作成のご経験 ・LinuxベースOS上でのコマンドベースでの業務経験 [尚可スキル] ・データ連携/データ活用案件のご経験 ・Talend、Logstasht等のETLツールでのパイプライン構築経験 ・BIツール利用のご経験 ・OSやミドルウェア等の障害や問題のトラブルシュート経験 ・ベンダー等のサポートへの問い合わせ経験 [稼働開始日] 10月~(長期) 【予算】 ~75万 SES 140h-180h 【場所】 90%程度テレワーク 月1回程度、田町への出社あり 【面談】 Web1回 ※チーム編成上外国籍の方は難しいです。
案件の内容
■案件概要 データ利活用を目的としたビッグデータの加工・集計業務(主にAWSを利用しての開発) ■作業詳細 スクラムのメンバーとして、基盤構築/アプリ開発 ビッグデータの加工・集計業務 ■必須要件 ・ AWSの基礎的な知識/構築経験(AWS SAA相当の知識) - マネージドサービス中心に機能を設計・構築したことがある経験 - S3の基礎的な知識(ストレージクラス、ライフサイクル、イベント駆動など) - Lambda 利用経験 ・ プログラミング経験 - AWSと連携する機能を設計・実装・テストした経験 - Python, SQL、シェルスクリプトをメインで使用。別言語の経験でも可 ・ Linux操作 - 基本的なコマンド操作 ■尚可要件 ・ AWSのデータ系サービス、ワークフローサービスの知識 - Glue, EMR, Step Functionsを利用してETLワークフローを設計・構築した経験 ・ IaCを利用してクラウドインフラをコードで管理した経験 - Terraform, AWS CDK(Python)の両者をプロジェクトでは使用 ・ Apache Spark(PySpark: 分散処理フレームワーク)、Hadoopでの大規模分散処理 ・ Snowflakeを利用したDWH構築経験 ・ スクラムによる開発経験 ・ 要件定義、上流設計、アーキテクチャ設計、機能設計経験 ・ データセキュリティ、暗号化、データプライバシーの理解 ■その他条件: 作業期間:即日 作業時間:9:00~18:00 作業場所:品川シーサイド 募集人数:1名 月額単価:~75万円程度 時間精算:有り(時間幅:140h~180h) 面談回数:顧客WEB面談1回 契約形態:準委任 再委託 :貴社社員のみ
求めるスキル
■案件概要 データ利活用を目的としたビッグデータの加工・集計業務(主にAWSを利用しての開発) ■作業詳細 スクラムのメンバーとして、基盤構築/アプリ開発 ビッグデータの加工・集計業務 ■必須要件 ・ AWSの基礎的な知識/構築経験(AWS SAA相当の知識) - マネージドサービス中心に機能を設計・構築したことがある経験 - S3の基礎的な知識(ストレージクラス、ライフサイクル、イベント駆動など) - Lambda 利用経験 ・ プログラミング経験 - AWSと連携する機能を設計・実装・テストした経験 - Python, SQL、シェルスクリプトをメインで使用。別言語の経験でも可 ・ Linux操作 - 基本的なコマンド操作 ■尚可要件 ・ AWSのデータ系サービス、ワークフローサービスの知識 - Glue, EMR, Step Functionsを利用してETLワークフローを設計・構築した経験 ・ IaCを利用してクラウドインフラをコードで管理した経験 - Terraform, AWS CDK(Python)の両者をプロジェクトでは使用 ・ Apache Spark(PySpark: 分散処理フレームワーク)、Hadoopでの大規模分散処理 ・ Snowflakeを利用したDWH構築経験 ・ スクラムによる開発経験 ・ 要件定義、上流設計、アーキテクチャ設計、機能設計経験 ・ データセキュリティ、暗号化、データプライバシーの理解 ■その他条件: 作業期間:即日 作業時間:9:00~18:00 作業場所:品川シーサイド 募集人数:1名 月額単価:~75万円程度 時間精算:有り(時間幅:140h~180h) 面談回数:顧客WEB面談1回 契約形態:準委任 再委託 :貴社社員のみ
案件の内容
案件概要: お客様にて配賦処理サーバを国内DCプライベートクラウド上に Hadoopサーバを構築して運用中であるが、RHELサポート切れが近い為、 現行環境をAWS上に移行予定。 現行Hadoopクラスタ環境をAWS EMRに移行するにあたり以下作業を実施予定。 ・PoC環境の設計、構築、テスト ・アプリチームの支援(AWS関連) ・性能テスト支援(リソース情報取得等) 等 必須: ・AWS設計/構築経験 ・AWS EMR(Appache Hadoop)の知見 ・Hadoopクラスタ(オンプレorプライベートクラウド)の経験 ・コミュニケーションに問題が無い方 尚可 ・リーダー経験 期間:4月~9月末予定 単価:90万円程度 ※スキル見合い 商流:大手SIer⇒弊社 面談:1回予定 作業場所:原則フルリモート 備考: ・外国籍不可 ・貴社社員まで ※但し、貴社に紹介支援費支払いのかたちで所属元を直接弊社に ご紹介いただける場合は貴社取引先BP社でも検討可。
求めるスキル
案件概要: お客様にて配賦処理サーバを国内DCプライベートクラウド上に Hadoopサーバを構築して運用中であるが、RHELサポート切れが近い為、 現行環境をAWS上に移行予定。 現行Hadoopクラスタ環境をAWS EMRに移行するにあたり以下作業を実施予定。 ・PoC環境の設計、構築、テスト ・アプリチームの支援(AWS関連) ・性能テスト支援(リソース情報取得等) 等 必須: ・AWS設計/構築経験 ・AWS EMR(Appache Hadoop)の知見 ・Hadoopクラスタ(オンプレorプライベートクラウド)の経験 ・コミュニケーションに問題が無い方 尚可 ・リーダー経験 期間:4月~9月末予定 単価:90万円程度 ※スキル見合い 商流:大手SIer⇒弊社 面談:1回予定 作業場所:原則フルリモート 備考: ・外国籍不可 ・貴社社員まで ※但し、貴社に紹介支援費支払いのかたちで所属元を直接弊社に ご紹介いただける場合は貴社取引先BP社でも検討可。
案件の内容
■案件概要 :サービス関連ログ、サービス関連データを Elasticserach及びHadoopクラスタ基盤(オンプレ)及びSplunkへ集約し、 コールセンタの運用改善等のデータ活用を実施しております。 ■業務内容 :Splunk上でのダッシュボード開発はツール利用者様にて行われておりますため、 基盤の構築・運用や、Elasticserach及びHadoopクラスタ基盤(オンプレ)及び Splunkへのデータ連携の開発が主なスコープとなります。 データ連携については、Splunk Forwarder、Logstash、Talend(Java)、Pythonを 併用しております。 ■必要スキル:・Splunkの利用のご経験(ELKでも可) ・SQL等でのDB操作の業務ご経験 ・shellなどでのスクリプト作成のご経験 ・LinuxベースOS上でのコマンドベースでの業務経験 ■尚可スキル:・データ連携/データ活用案件のご経験 ・Talend、Logstasht等のETLツールでのパイプライン構築経験 ・BIツール利用のご経験 ・OSやミドルウェア等の障害や問題のトラブルシュート経験 ・ベンダー等のサポートへの問い合わせ経験 人 数:1名 作業期間:2025年1月 ~ 長期 作業場所:リモート ※月一程度田町出社 単 価:75万円程度 精 算:140h~180h 面 談:顧客Web1回 貴社一社先まで可 その他 :外国籍不可
求めるスキル
■案件概要 :サービス関連ログ、サービス関連データを Elasticserach及びHadoopクラスタ基盤(オンプレ)及びSplunkへ集約し、 コールセンタの運用改善等のデータ活用を実施しております。 ■業務内容 :Splunk上でのダッシュボード開発はツール利用者様にて行われておりますため、 基盤の構築・運用や、Elasticserach及びHadoopクラスタ基盤(オンプレ)及び Splunkへのデータ連携の開発が主なスコープとなります。 データ連携については、Splunk Forwarder、Logstash、Talend(Java)、Pythonを 併用しております。 ■必要スキル:・Splunkの利用のご経験(ELKでも可) ・SQL等でのDB操作の業務ご経験 ・shellなどでのスクリプト作成のご経験 ・LinuxベースOS上でのコマンドベースでの業務経験 ■尚可スキル:・データ連携/データ活用案件のご経験 ・Talend、Logstasht等のETLツールでのパイプライン構築経験 ・BIツール利用のご経験 ・OSやミドルウェア等の障害や問題のトラブルシュート経験 ・ベンダー等のサポートへの問い合わせ経験 人 数:1名 作業期間:2025年1月 ~ 長期 作業場所:リモート ※月一程度田町出社 単 価:75万円程度 精 算:140h~180h 面 談:顧客Web1回 貴社一社先まで可 その他 :外国籍不可
案件の内容
■案件概要: 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます 【マイグレーション例】 ・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト ・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する ⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション ■必須要件 ・Apache Sparkを用いたデータ加工処理のご経験 ・Databricks,Snowflake(Snowpark)、AWS(Glue,EMR)の知見を有する方 ・勤怠に問題のない方 ・コミュニケーション能力の高い方 ・指示待ちではなく主体的に動いていただける方 ■その他: 作業期間:7月~ ※中長期 作業時間:原則9:00~18:00 作業工数:1.0~2.0人月 作業場所:原則リモート(オンサイトMTGが発生した場合は門前仲町/後楽への出社の可能性有) 募集人数:1~2名 月額単価:~100万程度(スキル見合い) 時間精算:有り(時間幅:140h~180h/月) 面談回数:顧客WEB面談1回(事前弊社WEB面談実施の可能性有) 案件商流:エンド⇒大手SIer⇒弊社 支払周期:毎月月末締め翌々月10日支払い(40日サイト) 契約形態:準委任 外国籍:不可
求めるスキル
■案件概要: 現行加工処理をマイグレーションの計画/方式の検討立案を行っていただきます 【マイグレーション例】 ・現在オンプレミスのApache sparkで行われているデータ加工処理のクラウドシフト ・ETLツールやHadoopで行われている処理をSparkを使用した加工処理に置換する ⇒Databricks、snowflake(snowpark)、AWS(Glue,EMR)等のSpark関連マネージド・サービスにマイグレーション ■必須要件 ・Apache Sparkを用いたデータ加工処理のご経験 ・Databricks,Snowflake(Snowpark)、AWS(Glue,EMR)の知見を有する方 ・勤怠に問題のない方 ・コミュニケーション能力の高い方 ・指示待ちではなく主体的に動いていただける方 ■その他: 作業期間:7月~ ※中長期 作業時間:原則9:00~18:00 作業工数:1.0~2.0人月 作業場所:原則リモート(オンサイトMTGが発生した場合は門前仲町/後楽への出社の可能性有) 募集人数:1~2名 月額単価:~100万程度(スキル見合い) 時間精算:有り(時間幅:140h~180h/月) 面談回数:顧客WEB面談1回(事前弊社WEB面談実施の可能性有) 案件商流:エンド⇒大手SIer⇒弊社 支払周期:毎月月末締め翌々月10日支払い(40日サイト) 契約形態:準委任 外国籍:不可
案件の内容
◆案件概要/作業概要: ・顧客グループ内のデータ利活用を目的としたビッグデータの加工 および集計業務を行うためのアプリ開発をご支援頂きます。 ・主にAWSを利用しての開発となります。 ・開発手法はスクラム開発であり、スクラムチームのメンバとして 基盤構築/アプリ開発を実施頂きます。 ※設計、開発、テスト、リリース ◆必須スキル: ・AWSの基礎的な知識/構築経験(AWS SAA相当の知識) - マネージドサービス中心に機能を設計/構築経験 - S3の基礎的な知識 ※ストレージクラス、ライフサイクル、イベント駆動等 - Lambda 利用経験 ・プログラミング経験 - AWSと連携する機能を設計/実装/テストした経験 - Python, SQL、シェルスクリプトの経験 ※別言語の経験でも可 ◆尚可スキル: ・AWSのデータ系サービス、ワークフローサービスの知識 - Glue, EMR, Step Functionsを利用してETLワークフロー を設計・構築した経験 ・IaCを利用してクラウドインフラをコードで管理した経験 - Terraform, AWS CDK(Python)の両方を本プロジェクトにて 使用 ・Apache Spark(PySpark:分散処理フレームワーク)、Hadoop での大規模分散処理 ・Snowflakeを利用したDWH構築経験 ・スクラムによる開発経験 ・要件定義、上流設計、アーキテクチャ設計、機能設計経験 ※チーム①②があり、チーム②に関しては、よりインフラ寄りを 求められているため、プログラミング経験は少なくてもご提案 可能です(但し、開発経験ゼロはNGです)。 ◆その他条件: ・期間 :7月~ 長期 ※開始時期(8月、9月等)相談可能 ・勤務場所 :リモート/出社併用 ※出社時は品川(顧客先) ・勤務時間 :09:00~18:00 ・募集人数 :1名 ・単金 :~70万 ※スキル見合い ・精算幅 :140h~180h ・面談 :2回予定 ・支払サイト:40日 ・商流制限 :貴社社員/契約社員まで ・外国籍 :不可
求めるスキル
◆案件概要/作業概要: ・顧客グループ内のデータ利活用を目的としたビッグデータの加工 および集計業務を行うためのアプリ開発をご支援頂きます。 ・主にAWSを利用しての開発となります。 ・開発手法はスクラム開発であり、スクラムチームのメンバとして 基盤構築/アプリ開発を実施頂きます。 ※設計、開発、テスト、リリース ◆必須スキル: ・AWSの基礎的な知識/構築経験(AWS SAA相当の知識) - マネージドサービス中心に機能を設計/構築経験 - S3の基礎的な知識 ※ストレージクラス、ライフサイクル、イベント駆動等 - Lambda 利用経験 ・プログラミング経験 - AWSと連携する機能を設計/実装/テストした経験 - Python, SQL、シェルスクリプトの経験 ※別言語の経験でも可 ◆尚可スキル: ・AWSのデータ系サービス、ワークフローサービスの知識 - Glue, EMR, Step Functionsを利用してETLワークフロー を設計・構築した経験 ・IaCを利用してクラウドインフラをコードで管理した経験 - Terraform, AWS CDK(Python)の両方を本プロジェクトにて 使用 ・Apache Spark(PySpark:分散処理フレームワーク)、Hadoop での大規模分散処理 ・Snowflakeを利用したDWH構築経験 ・スクラムによる開発経験 ・要件定義、上流設計、アーキテクチャ設計、機能設計経験 ※チーム①②があり、チーム②に関しては、よりインフラ寄りを 求められているため、プログラミング経験は少なくてもご提案 可能です(但し、開発経験ゼロはNGです)。 ◆その他条件: ・期間 :7月~ 長期 ※開始時期(8月、9月等)相談可能 ・勤務場所 :リモート/出社併用 ※出社時は品川(顧客先) ・勤務時間 :09:00~18:00 ・募集人数 :1名 ・単金 :~70万 ※スキル見合い ・精算幅 :140h~180h ・面談 :2回予定 ・支払サイト:40日 ・商流制限 :貴社社員/契約社員まで ・外国籍 :不可
案件の内容
------------------------------------------------------------------- ■35歳~50歳が活躍中 ■フルタイム案件(副業不可) ■国内在住者の方限定 ※セキュリティ担保の観点 ■日本語ネイティブの方が活躍中 ------------------------------------------------------------------- 【企業】 テレビ視聴データ分析サービス(SaaS型)を提供しており、業界トップクラスのシェアを誇っています。初めてオンライン上でテレビ・CMの視聴データを簡単に、ほぼリアルタイムで分析することを実現しました。 今後、テレビ広告市場に長年残されたままの大きな課題を、8年でほぼ解決することを目指し、現在に比べて20倍以上の事業規模を狙います。 【業務内容】 自社SaaSシステムの刷新プロジェクトの基本設計において、アーキテクトと連携しながらインフラの検討及び構築をお願いします。 本プロジェクトの環境はAWS(一部GCP)となります。 主な業務内容は下記となります。 ・Terraform、CloudFormationによるIaaS環境の整備 ・GitHubActionsなどを利用したCI/CD環境の整備 ・ビッグデータ解析・集計基盤の整備 今回ビッグデータの解析・集計処理も行うため、そのための解析基盤(Hadoopを想定)の検討・構築にも関わっていただきます。 【募集人数】 1名 【稼働開始時期】 即日 【求める人物像イメージ】 中規模インフラチームのリーダークラス 【働き方】 ・週5日稼働 ・フルリモート可 ・フレックスタイム
求めるスキル
・AWS、GCP、Azure等のクラウドインフラの経験3年以上 ・IaaS、CI/CDの実務経験 ・コンテナ技術を利用した運用経験(ECS、kubenetesなど) ・ビッグデータ解析基盤の構築に関する実務経験 ・課題や懸念等を随時共有し、説明し、問題解決していくコミュニケーションスキルと実行力 ・インフラチームのリーダー経験
1 - 30/件 全9件