class PikaImageToVideoV2_2(PikaNodeBase):
"""Pika 2.2 画像から動画へノード。"""
@classmethod
def INPUT_TYPES(cls):
return {
"required": {
"image": (
IO.IMAGE,
{"tooltip": "動画に変換する画像"},
),
**cls.get_base_inputs_types(PikaBodyGenerate22I2vGenerate22I2vPost),
},
"hidden": {
"auth_token": "AUTH_TOKEN_COMFY_ORG",
},
}
DESCRIPTION = "Pika API v2.2 に画像とプロンプトを送信し、動画を生成します。"
RETURN_TYPES = ("VIDEO",)
def api_call(
self,
image: torch.Tensor,
prompt_text: str,
negative_prompt: str,
seed: int,
resolution: str,
duration: int,
auth_token: Optional[str] = None,
) -> tuple[VideoFromFile]:
"""Pika 2.2 画像から動画へ向けた API 呼び出し。"""
# 画像を BytesIO に変換
image_bytes_io = tensor_to_bytesio(image)
image_bytes_io.seek(0) # ストリーム位置を先頭に戻す
# マルチパートアップロード用のファイルデータを準備
pika_files = {"image": ("image.png", image_bytes_io, "image/png")}
# Pydantic モデルを使用してファイル以外のデータを準備
pika_request_data = PikaBodyGenerate22I2vGenerate22I2vPost(
promptText=prompt_text,
negativePrompt=negative_prompt,
seed=seed,
resolution=resolution,
duration=duration,
)
initial_operation = SynchronousOperation(
endpoint=ApiEndpoint(
path=PATH_IMAGE_TO_VIDEO,
method=HttpMethod.POST,
request_model=PikaBodyGenerate22I2vGenerate22I2vPost,
response_model=PikaGenerateResponse,
),
request=pika_request_data,
files=pika_files,
content_type="multipart/form-data",
auth_token=auth_token,
)
return self.execute_task(initial_operation, auth_token)