# Google Cloud Storage

Google Cloud Storage で画像データを保存し、Roboflow にアップロードする場合、一般的には 2 つの選択肢があります。Signed URL を使う方法、または画像をローカルに手動でダウンロードして（gsutil CLI 経由）、ローカルからアップロードする方法です。どちらを選ぶかは、データ処理と管理における具体的なニーズによって異なります。

* **Signed URL**：この方法は、画像をローカルマシンにダウンロードする際に発生する追加の手順と時間を避けたい場合に特に有利です。Signed URL を使えば、画像データをローカルに保存することなく、Google Cloud Storage から Roboflow API に直接アップロードできます。その結果、処理がより高速になり、ローカルシステムへの負荷も軽減されます。
* **CLI でローカルに**：まず画像をローカル環境にダウンロードしたい、というケースもあるかもしれません。たとえば、Roboflow にアップロードする前に画像を前処理したり、手動で確認したりする必要がある場合は、ローカルコピーがあると便利です。

適切な方法の選択は、データ転送速度、前処理の必要性、画像の手動確認など、具体的なユースケース要件によって決まります。

### Google Cloud JSON キー

バケットに対する適切な権限を持つサービス アカウントを作成し、JSON キーファイルをダウンロードします。このファイルには、アプリケーションの認証に使用される資格情報が含まれます。

### オプション 1: Signed URL 経由でアップロード:

Python の Google Cloud SDK を使用して、Google Cloud Storage バケット内の画像の Signed URL を生成できます。

```python
def get_gcs_signed_url(bucket_name: str, blob_name: str) -> str:
    """GCS オブジェクトの Signed URL を生成します。"""
    storage_client = storage.Client.from_service_account_json(GOOGLE_APPLICATION_CREDENTIALS)
    bucket = storage_client.get_bucket(bucket_name)
    blob = bucket.get_blob(blob_name)
    
    url = blob.generate_signed_url(
        version="v4",
        expiration=3600,  # 3600 秒 = 1 時間
        method="GET"
    )
    return url
```

上のコードスニペットでは、Google Cloud Storage バケット名と blob 名が必要です。画像の Signed URL が生成され、返されます。

これを基に、バケット内の利用可能なすべてのオブジェクトを取得し、それらを API 経由で Roboflow にアップロードする完全なソリューションを作成できます。このソリューションの概要は以下のとおりです。

```python
from google.cloud import storage
import requests
import urllib.parse

# ************* 以下の変数を設定してください *************
GCS_BUCKET_NAME = "YOUR_GCS_BUCKET_NAME"
ROBOFLOW_API_KEY = "YOUR_ROBOFLOW_API_KEY"
ROBOFLOW_PROJECT_NAME = "YOUR_ROBOFLOW_PROJECT_NAME"
GOOGLE_APPLICATION_CREDENTIALS = "path/to/your-service-account-file.json"
# ***********************************************

def get_gcs_signed_url(bucket_name: str, blob_name: str) -> str:
    """GCS オブジェクトの Signed URL を生成します。"""
    storage_client = storage.Client.from_service_account_json(GOOGLE_APPLICATION_CREDENTIALS)
    bucket = storage_client.get_bucket(bucket_name)
    blob = bucket.get_blob(blob_name)
    
    url = blob.generate_signed_url(
        version="v4",
        expiration=3600,  # 3600 秒 = 1 時間
        method="GET"
    )
    return url

def get_gcs_objects(bucket_name: str) -> list:
    """指定された GCS バケット内のオブジェクトキーの一覧を取得します。"""
    storage_client = storage.Client.from_service_account_json(GOOGLE_APPLICATION_CREDENTIALS)
    bucket = storage_client.get_bucket(bucket_name)
    blobs = bucket.list_blobs()

    object_names = []
    for blob in blobs:
        object_names.append(blob.name)
    return object_names

def upload_to_roboflow(api_key: str, project_name: str, presigned_url: str, img_name='', split="train"):
    """画像を Roboflow にアップロードします。"""
    API_URL = "https://api.roboflow.com"
    if img_name == '':
        img_name = presigned_url.split("/")[-1]

    upload_url = "".join([
        API_URL + "/dataset/" + project_name + "/upload",
        "?api_key=" + api_key,
        "&name=" + img_name,
        "&split=" + split,
        "&image=" + urllib.parse.quote_plus(presigned_url),
    ])
    response = requests.post(upload_url)

    # レスポンスコードを確認
    if response.status_code == 200:
        print(f"{img_name} を {project_name} に正常にアップロードしました")
        return True
    else:
        print(f"{img_name} のアップロードに失敗しました。エラー: {response.content.decode('utf-8')}")
        return False

if __name__ == "__main__":
    # 利用可能な blob の一覧を取得
    available_blobs = get_gcs_objects(GCS_BUCKET_NAME)
    
    # オプション: ここで blob をフィルタリング
    # 例: available_blobs = [blob for blob in available_blobs if "some_condition"]
    
    # blob を Roboflow にアップロード
    for blob in available_blobs:
        blob_url = get_gcs_signed_url(GCS_BUCKET_NAME, blob)
        upload_to_roboflow(ROBOFLOW_API_KEY, ROBOFLOW_PROJECT_NAME, blob_url)

```

### オプション 2: GCP からデータをローカルにダウンロード

GCP からデータをダウンロードするには、まず GCP CLI をインストールします。次に、GCP のユーザーアカウントで認証します。

画像または画像フォルダをダウンロードするには、次のコマンドを使用します。

```bash
gsutil cp -r gs://mybucket/folder .
```

置き換えてください `mybucket` を GCP ストレージ バケットの名前に、また `folder` をコピーしたいファイルまたはフォルダの保存先に。このコマンドは、対象のファイルまたはフォルダを現在の作業ディレクトリ（`.`).

### データを Roboflow にアップロード

データをダウンロードしたので、今度はそれを Roboflow にアップロードできます。方法は次のいずれかです。 [Upload Web Interface](https://docs.roboflow.com/roboflow/roboflow-jp/datasets/adding-data/..#upload-data-with-the-web-interface) または [Roboflow CLI](https://app.gitbook.com/s/e5GEiPeDoFksvZv1vH3A/command-line-interface/upload-a-dataset).

### も参照してください

* [Roboflow のプロジェクト ID を取得する](https://docs.roboflow.com/api-reference/workspace-and-project-ids)
