タグ

GCSに関するsatoshi_hiraishiのブックマーク (3)

  • Cloud Storage上の大量のオブジェクトをバッチリクエストでコピーしてみた | DevelopersIO

    概要 Cloud Storage上の大量のオブジェクトを高速で削除、コピーすることに向き合っている最近です。以前は並行処理でコピーをしてみましたが、今回はCloud StoageのBatch APIを用いてコピーしてみます。 Batch APIに関してはこちらをご参照ください。 やりたいこと Cloud Storage上の大量のオブジェクトをBatch APIを用いてコピーしたい コピーしたら元ファイルを削除して、移動処理にしたい 注意点 Batch APIのリファレンスにはアップロード/ダウンロードのバッチ操作はできないと記載があります。 Warning: Cloud Storage does not support batch operations for uploading or downloading. Additionally, the current batch design

    Cloud Storage上の大量のオブジェクトをバッチリクエストでコピーしてみた | DevelopersIO
  • Cloud SQL のデータを定期的に GCS へバックアップする仕組みを整えました - VISASQ Dev Blog

    はじめに こんにちは!基盤チームの高畑です。 最近シロカのコーヒーメーカーを買ってからというもの、1 日に 5 杯くらいコーヒーを飲み続けてしまっておりちょっと飲み過ぎなのではないかと危機感を覚えています。 手軽にコーヒーが淹れられてしまうのも考えものですが、美味しいので仕方がないと自分に言い聞かせながら今もコーヒーを淹れています。 みなさん、Cloud SQL のバックアップを定期的に行うといえば、まず思い浮かぶのは自動バックアップ機能を利用することだと思います。 しかし、この自動バックアップはあくまで「インスタンスが存在していること」が前提で、仮に Cloud SQL のインスタンスが削除されてしまった場合にバックアップもろとも削除されてしまい復元ができないといった状態に陥ってしまいます。 AWS の RDS であればスナップショットを定期的に取っておくことでインスタンスが削除されてし

    Cloud SQL のデータを定期的に GCS へバックアップする仕組みを整えました - VISASQ Dev Blog
  • GoとGCSで100GBの巨大zipファイルを展開する | Re:Earth Engineering

    はじめに ファイルをアップロードすることができる機能を持ったWebアプリケーションやクラウドサービスは世の中に多数あります。しかし、アップロードしたzipファイルを自動で展開(解凍)してくれて、中身のファイルが閲覧できる機能を持ったサービスは、あまり多くはないかもしれません。 もし、Google Cloud上で、zipファイルをアップロードし自動的に展開してGCSに配置するシステムを作るとしたら、どうやって実現すればよいでしょうか。たとえ100GBのzipファイルでも問題なく展開できるようにするには? そんな難題に挑み、GCSにアップロードされた100GB級のzip/7zファイルを自動的に展開することができるシステムをGoで実装し、プロダクションレベルで実現しました。その技術について解説します。 背景 PLATEAU VIEWの画面 Eukaryaでは、国土交通省が主導しているProjec

    GoとGCSで100GBの巨大zipファイルを展開する | Re:Earth Engineering
  • 1