🗂 Synology NASからpCloudへバックアップしたいあなたへ
「NASのデータ、どこかに自動でバックアップできないかな?」
そんなふうに思ったこと、ありませんか?
私もそのひとりです。SynologyのNASを使っていると、日々いろんなファイルがたまっていきます。仕事の書類、写真、動画、設定ファイル……万が一のために、どこか別の場所にコピーしておきたいと思うのは当然のこと。
でも、外部サービスとの相性って意外と複雑。Google DriveやDropboxといったクラウドストレージにはSynologyの「Cloud Sync」や「Hyper Backup」で連携できるのに、pCloudだけは公式対応していないという壁にぶつかります。
私は、そんなpCloudとSynology NASの自動バックアップを「毎日朝6時に」「差分だけ」「自動で」実行する仕組みを構築しました。rcloneというツールを使って、完全に無料で、安全に、効率的に動かすことができます。
この記事では、そんな私の実体験に基づいて、Synology NASとpCloudのバックアップ環境を整える方法をステップバイステップで解説していきます。
ITの知識があまりなくても大丈夫。コピペで使えるコマンド、注意点、なぜそうするのかという理由まで、じっくり丁寧に説明します。
さらに、差分バックアップ・ログ保存・通知など、日常運用に必要な仕組みも網羅します。
さぁ、一緒に始めましょう。
🔄 Synology NASをpCloudに自動バックアップする3つの方法
SynologyのNASをお使いの方なら、「どこか安全な場所に定期的にバックアップしておきたい」と考えることがあると思います。とくに災害や盗難に備えるなら、別のロケーションにあるクラウドストレージへのバックアップは重要です。
しかし、Synologyが公式にサポートしているクラウドサービスはGoogle DriveやDropboxなど一部に限られており、pCloudは非対応。そのため、少し工夫が必要になります。
ここでは、SynologyのNASからpCloudへ自動バックアップを実現する3つの方法をご紹介します。それぞれのメリット・デメリット、必要な準備や手順も丁寧に解説していきます。
✅ 方法①:WebDAVでpCloudをマウントしてrsyncでバックアップ
もっとも手軽なのがこの方法です。pCloudはWebDAVに対応しているため、SynologyからSSH経由でWebDAVマウントを行い、そこにrsyncでファイルをコピーするという手法です。
🔧 準備するもの
- Synology NASのSSHアクセス(DSM 7.x 対応)
davfs2
(WebDAVクライアント)- pCloudのWebDAV情報(メールアドレス+パスワード)
- rsyncでバックアップスクリプトを作成
- cronでスケジュール実行
🔁 ステップ
- pCloudのWebDAV接続情報を確認
- URL:
https://webdav.pcloud.com/
- ユーザー名: pCloudに登録したメールアドレス
- パスワード: ログインパスワード(2段階認証を無効にする必要あり)
- URL:
- Synologyにマウントポイントを作成してWebDAV接続
mkdir -p /mnt/pcloud mount -t davfs https://webdav.pcloud.com/ /mnt/pcloud \ -o uid=admin,gid=users,username=YOUR_EMAIL,password=YOUR_PASSWORD
🔐 パスワードを直接書きたくない場合は
~/.davfs2/secrets
ファイルを使えば安全です。 - rsyncでバックアップスクリプトを作成
#!/bin/bash src="/volume1/BackupFolder/" dest="/mnt/pcloud/NASBackup/" rsync -av --delete "$src" "$dest"
保存後、以下のように実行権限を付与します:
chmod +x /volume1/scripts/backup-to-pcloud.sh
- cronで定期実行する
毎日朝2時にバックアップを実行する例:crontab -e 0 2 * * * /volume1/scripts/backup-to-pcloud.sh
✅ 方法②:PC/Mac経由で間接的に同期する方法
この方法では、NASの内容をPCやMacに一度同期し、そこからpCloud Driveを使ってクラウドにアップロードします。NAS → PC/Mac → pCloudというフローです。
メリット
- GUI中心で構築が簡単
- スクリプト不要
デメリット
- PC/Macの電源が常時ONである必要がある
- 同期タイミングがNAS単体では制御できない
💡 メインPCを常に使っている人ならアリですが、NASだけで完結しない点が大きなマイナスです。
✅ 方法③:rcloneを使って直接pCloudと接続(おすすめ)
もうひとつの有力な選択肢が rclone の活用です。rcloneは多くのクラウドサービスに対応したオープンソースのCLIツールで、pCloudも公式サポートされています。
インストールと設定
Synologyにrcloneを導入し、pCloudをリモート先として設定します。
rclone config
設定後は次のようなコマンドでバックアップできます:
rclone copy /volume1/BackupFolder/ pcloud:NASBackup --progress
cronで定期実行も可能です。
メリット
- 暗号化や差分コピー、帯域制限など細かな設定が可能
- NAS単体で運用できる
- WebDAVより安定している場合もある
デメリット
- 初期設定がやや複雑
- SSHでの操作が前提(GUI非対応)
📌 まとめ:どの方法を選ぶべき?
方法 | 特徴 | 難易度 |
---|---|---|
WebDAV + rsync | 安定・軽量・NAS完結型 | ★★★☆☆ |
rclone | 柔軟・暗号化可能・細かな制御が可能 | ★★★★☆ |
PC/Mac経由 | 手軽・GUI中心だがNAS単体では完結しない | ★★☆☆☆ |
基本的には、WebDAV + rsyncまたはrcloneをおすすめします。とくに「NASだけで完結させたい」「自動化したい」という方に最適です。
🌐 WebDAVとは?クラウドをフォルダのように使う仕組み
ここまでの説明でたびたび登場してきた WebDAV(ウェブダブ)。今回はこの技術は用いませんが、気になる方のために少しだけ解説しておきます。
💡 WebDAVとは?
WebDAV(Web-based Distributed Authoring and Versioning)は、簡単に言えば「Webサーバーをネットワークドライブのように使える」技術です。
通常、Webブラウザを使ってファイルをアップロードするのは1つずつが基本ですが、WebDAVを使えばフォルダごとまとめてアップロード・ダウンロードしたり、Finderやエクスプローラのような感覚でドラッグ&ドロップ操作が可能になります。
🔧 WebDAVでできること
- インターネット上のサーバーにファイルをアップロード/ダウンロード
- Finderやエクスプローラでフォルダのように開いて操作
- 複数人でファイルの共有・共同編集(一部バージョン管理も可能)
🧠 WebDAVの立ち位置をイメージしよう
SMBやAFPといったNASのファイル共有プロトコルがありますが、WebDAVはHTTPやHTTPSといったWeb技術でこれらと同じようなことを実現します。
つまり、インターネットを通じてクラウドストレージと直接やりとりするための、標準化された便利な橋渡しのような存在です。
🌐 こんなときに活躍します
- Synology NASからpCloudへバックアップ(本記事ではrclone方式がメイン)
- Webサーバーへのファイル転送(Web制作現場など)
- iOS・Androidアプリでのファイル同期や閲覧
✅ WebDAVのメリット
- HTTPS(ポート443)を使うので多くの環境で利用可能
- セキュリティ認証(ID/パスワード)で安全にアクセス可能
- ローカルフォルダのような使い勝手
⚠️ WebDAVの注意点
- 転送速度はFTPやSMBより遅いことがある
- サービスによってはβ版(pCloudなど)で安定性に注意
🗂 pCloud × WebDAV:公式対応しています
pCloudはWebDAV接続を公式にサポートしており、以下のURLからアクセスできます:
https://webdav.pcloud.com/
このURLを使えば、Synology NASやMac・Windows PCからpCloudをネットワークドライブのように「マウント」できます。
バックアップスクリプトやrsyncなどのツールからも、このマウント先を普通のローカルフォルダとして扱えるため、pCloudをまるで外付けHDDのように使うことが可能になります。
⚙️ rcloneとは?クラウドを自在に操るコマンドラインツール
SynologyのNASからpCloudへバックアップを行う際、もうひとつの有力な選択肢がrclone(アールクローン)です。少し聞き慣れない名前かもしれませんが、実はこのツール、非常に強力です。
💡 rcloneとは?
rcloneは、「クラウド版rsync」とも呼ばれる、高性能なファイル同期ツールです。
- 約100種類以上のクラウドサービスに対応(Google Drive、Dropbox、pCloud、S3など)
- ローカル ↔ クラウド、クラウド ↔ クラウド間のファイル操作が可能
- Linux、macOS、Windowsに対応
- オープンソース(無料)でありながら極めて高機能
🧰 rcloneの主な特徴
機能 | 説明 |
---|---|
✅ 同期・コピー | ローカルとクラウドの双方向・一方向同期、ミラーリングが可能 |
✅ 暗号化 | アップロード時にファイルを暗号化して保存できる |
✅ バックアップ | 差分転送、世代管理に対応。定期バックアップ向き |
✅ 高速 | マルチスレッド転送により大容量でも高速にアップロード |
✅ スクリプト連携 | cronやシェルスクリプトとの組み合わせで自動化が簡単 |
✅ CLIベース | GUIはなくコマンド操作。だからこそ柔軟な制御が可能 |
📦 対応サービスの例(一部)
- Google Drive / OneDrive / Dropbox / pCloud ✅
- Amazon S3 / Backblaze B2 / Wasabi
- WebDAV / FTP / SFTP / SMB
- NASやUSB外付けディスクなどのローカルディレクトリ
👀 rclone × pCloud の実践例
rcloneでは、pCloudを「リモート」として登録することで、以下のようなコマンドで簡単にバックアップできます。
rclone config
で初期設定を行った後、例えば次のように使います:
rclone copy /volume1/BackupFolder pcloud:NASBackup --progress
pcloud:
は設定時に自分で決めたリモート名--progress
で進行状況をリアルタイム表示
🎯 rcloneが向いている人
- SynologyやLinuxにある程度慣れている人
- 自動化やコマンド操作を厭わない人
- 複数クラウドサービス間の同期をしたい人
⚠️ rcloneの注意点
- 初期設定(
rclone config
)がやや難しい - GUIがない(ただし簡易Web GUIも存在)
✅ Synologyでrcloneを使うには?
- SynologyでSSHを有効にしてターミナルからログイン
- 公式サイトからLinux用rcloneバイナリをダウンロード
/usr/local/bin
などに配置し、chmod +x
で実行権限を付与rclone config
でリモート接続設定を行う- スクリプトで
rclone sync
などを定期実行
🔚 rcloneのまとめ
特徴 | 内容 |
---|---|
名前 | rclone(アールクローン) |
できること | クラウドとローカルの間での高速・安全なファイル同期 |
メリット | 柔軟性が高く、スクリプトと相性抜群。差分・暗号化にも対応 |
デメリット | GUIがなく、コマンド操作が基本。初期設定に少し慣れが必要 |
rcloneは、まさに「自由度」と「自動化」を求めるユーザーのためのツールです。Synology × pCloudのバックアップにおいても、これを活用すれば高度な運用が可能になります。
📁 スクリプト専用フォルダ「scripts」を作った理由
今回のpCloudバックアップでは、NAS上に存在するデータフォルダ「work」の中身をクラウドに定期バックアップする構成です。ただし、バックアップ処理に使うrcloneやシェルスクリプト本体は、あえてworkの中には置かず、新たに「scripts」という共有フォルダを作成して、そこにまとめました。
この一手間が、実はとても重要です。以下に、その理由をまとめてご紹介します。
✅ なぜスクリプト専用フォルダを作ったほうがいいか?
理由 | 説明 |
---|---|
📁 ファイルの整理がしやすい | workフォルダに大量のデータファイルがあると、バックアップスクリプトが埋もれて探しにくくなります。scriptsフォルダに分ければ一目瞭然。 |
💥 誤削除・誤操作を防げる | 普段よく使うworkフォルダ内で作業していると、誤ってスクリプトを削除・編集してしまう危険も。分離しておけば安全性がアップします。 |
🤖 cronなどからの呼び出しが明確になる | /volume1/scripts/backup-to-pcloud.sh のように、定期実行ジョブからスッキリと呼び出せるので管理がラクになります。 |
🔒 アクセス権を分けたいときに便利 | scriptsフォルダだけ別のアクセス権を設定することで、スクリプトの保護やログの集中管理など、より堅牢な構成が実現できます。 |
このように、たとえNAS内にスクリプトが1つしかなかったとしても、専用の「scripts」フォルダを用意するのは整理・保守・安全のすべてにおいて効果的です。
今後、ログファイルや設定ファイルなどが増えてきた場合も、scriptsフォルダ内で完結できる設計にしておけば、運用負担を大きく軽減できます。
📥 rcloneのインストール手順(Synology NASに手動で設置)
rcloneは非常に強力なバックアップツールですが、Synologyでは標準でインストールされていないため、自分で手動導入する必要があります。
⚠️ OSは「NASのもの」を選びましょう
rcloneの公式ダウンロードページに行くと、まず「macOS」「Windows」「Linux」などの選択肢が出てきます。
ここで初心者がよくやってしまうのが、つい自分が使っているPCのOSを選んでしまうことです。でも今回rcloneを動かすのはNAS(=Synology)なので、NASのOSに対応したバージョンを選ぶ必要があります。
SynologyのOSは、Linuxベースの独自OSである DSM(DiskStation Manager)。そのため、「Linux版」を選びましょう。
🧠 CPUアーキテクチャも要チェック!
rcloneにはCPUの種類に応じたバージョンが用意されています。自分のNASがどのアーキテクチャなのかを確認するには、SSHでログインして次のコマンドを実行してください:
uname -m
代表的な出力例と意味は以下のとおりです:
出力例 | CPUアーキテクチャ | 説明 |
---|---|---|
aarch64 | ARM 64bit | Synology DS218playなどに搭載されるARMv8系 |
armv7l | ARM 32bit | 旧モデルの一部で使用 |
x86_64 | Intel 64bit | 高性能モデルや古いPCベースのNASなど |
自分のアーキテクチャが分かったら、rclone公式サイト(https://rclone.org/downloads/)にアクセスし、「Linux」タブの中から該当するCPU用のzipファイルをダウンロードしてください。
📤 NASへのアップロード:SCPは失敗、File Stationが確実!
私自身、最初は scp
コマンドでMacからNASにrcloneを転送しようとしました。たとえば:
scp ./rclone user@192.168.x.x:/volume1/scripts/
しかし、SCPでの転送はSynology側のSSH設定やユーザー権限の問題で拒否されることが多く、非常に時間がかかりました……。
最終的には、DSMの「File Station」からzipファイルを直接アップロードするのが一番スムーズという結論に至りました。
- DSMにログイン
scripts
フォルダを開く- 右クリック → 「アップロード」 → zipファイルを指定
- NAS上でzipを展開し、
rclone
バイナリを取り出す
この手順ならGUIで完結するので、初心者にも安心です。
🔧 ターミナルでの設置とインストール
次に、SSHでNASにログインした状態で、以下のコマンドを順番に実行してください。プロンプトは以下のような例になります(sample表記):
nasuser@NAS:/volume1/scripts$
① rcloneファイルがあるか確認
ls -l
rclone
というファイルが表示されればOKです。
② 実行権限を付ける
chmod +x rclone
③ システムにコピー(インストール)
sudo cp rclone /usr/bin/
※ /usr/bin/
に配置することで、どの場所からでも rclone
コマンドを実行できるようになります。
④ 動作確認
rclone version
以下のようなバージョン情報が表示されれば、インストール成功です!
rclone v1.70.2
- os/type: linux
- os/kernel: 4.4.59+ (aarch64)
- os/arch: arm64 (ARMv8 compatible)
- go/version: go1.24.4
🎉 rcloneの準備が整いました!
ここまでできれば、いよいよ次のステップに進めます:
rclone config
で pCloud の接続設定をする- バックアップスクリプトを作る
- cron に登録して完全自動化!
それぞれのステップについても、次のセクションで詳しく解説していきます。
🔑 rcloneでpCloudと接続する設定方法(初心者向けにやさしく解説)
rcloneのインストールが完了したら、次はクラウドとの接続設定です。今回は pCloud を接続先にします。
この設定は一度やってしまえばOKで、以後は自動バックアップで何度でも使えます。操作はすべてターミナル上ですが、ひとつずつ確認しながら進めれば決して難しくありません。
📌 事前に準備しておくもの
- pCloudのアカウント情報(メールアドレスとパスワード)
- インターネットに接続されたPC(Synology NAS側でブラウザが使えないため)
🛠 設定手順:rclone config を実行しよう
rclone config
① 新しい接続を作成する
次のような表示が出たら:
No remotes found - make a new one
n) New remote
s) Set configuration password
q) Quit config
n/s/q>
n を入力して Enter を押します。
② 接続名を決める(なんでもOK)
name>
ここでは接続名を入力します。これは自分で管理するための「ラベル名」なので、分かりやすければなんでも構いません。
例として pcloud と入力すると、後で次のように指定できます:
rclone copy /volume1/work pcloud:NASBackup
③ ストレージタイプを選ぶ
Type of storage to configure.
Choose a number from below, or type in your own value
...
42 / pCloud
\ "pcloud"
...
Storage>
ここでは 「42」 を入力するか、直接 「pcloud」 と入力して Enter を押します。
④ client_id / client_secret は空欄でOK
client_id>
client_secret>
ここは pCloudアプリを自作する場合に必要な設定ですが、今回は不要です。
client_idとclient_secretの入力欄が続けて表示されますが、どちらも空欄のまま Enter を押してください。
⑤ 高度な設定を変更しますか?
Edit advanced config? (y/n)
ここは特に変更しないので、n を入力して Enter で進みます。
⑥ 自動認証を使いますか?
Use auto config? (y/n)
ここがもっとも重要なポイントです。
通常、rcloneはブラウザを開いてログインする「自動認証(auto config)」を行いますが、Synology NASにはブラウザがありません。
したがって、ここではn(いいえ)を選んで、手動で認証するモードに切り替えます。
すると次に表示されるURLを使って、自分のPCでログイン認証を行う手順に移ります。
この後の「認証URLをPCで開いて、トークンを取得 → ターミナルに貼り付け」の流れについては、次のセクションで丁寧に解説します。
🖥️ Macにrcloneを一時的にインストールして、pCloud認証を完了する
Synology NASにはブラウザがないため、rcloneの認証プロセス(OAuthログイン)だけは別のデバイスで行う必要があります。今回は手元のMacを使って進めます。
📦 Macにrcloneをインストールしよう
rcloneの公式サイトからmacOS版のバイナリをダウンロードします:
ダウンロード後、ZIPファイルを展開して rclone
という実行ファイルを取り出します。
⚠️ Gatekeeperによるブロックの解除方法(重要)
初めて実行する際、macOSのセキュリティ機能(Gatekeeper)によって「開発元を確認できないため開けません」と表示されることがあります。
その場合は次の手順で解除しましょう:
- 「システム設定」→「プライバシーとセキュリティ」を開く
- 画面下に「'rclone'は開発元を確認できないためブロックされました」と表示されている箇所があるので、「このまま開く」をクリック
- 再度確認が表示されたら「開く」を選択
これでrcloneがMac上で使えるようになります。
🌐 認証をMacで実行する
ターミナルから以下を入力して認証プロセスを再開します:
rclone authorize "pcloud"
すると、次のような手順が表示されます:
- ブラウザが起動し、pCloudのログインページが開きます
- メールアドレスとパスワードを入力してログイン
- 次のような画面が表示されます:
Do you want to allow rclone to access your files?
[Allow] [Deny]
☑️ 必ず「Allow」を選択!
このステップがとても重要です。「Deny」の方が派手なボタン色になっているため、つい押してしまいそうになりますが、必ず「Allow(許可)」をクリックしてください。
「Allow」を押すと、ブラウザに次のような画面が表示されます:
Success
All done. Please go back to rclone.
この表示が出たら、認証が完了しています。
🔑 トークンをコピーしてNASに貼り付ける
ここで重要なのは、Macのターミナル画面に戻ると、JSON形式の認証トークンが表示されていることです。
{"access_token":"xxxxx","token_type":"Bearer", ...}
⚠️ コピーするときの注意点
- 「{」から「}」まですべてを正確にコピーしてください
- 途中の「...」や「xxxxx」だけでは不完全です
- できれば一度メモ帳などに貼って内容を確認してからコピーすると安全
このトークンを、NAS側のターミナルに戻って貼り付ければ、rcloneのpCloud接続設定は完了です。
これで、SynologyからpCloudへ安全にファイルを転送できる環境が整いました!
🔁 誤解しないで!Macは「一時的な認証用」なだけです
ここで改めて確認しておきたい大切なポイントがあります。
「あれ?いまMacにもrcloneをインストールして、pCloudと認証したよね?それってバックアップは NAS → Mac → pCloud の流れになるの?」と不安になった方もいるかもしれません。
✅ 答え:バックアップは NAS → pCloud のみです
Macはあくまで 「ブラウザを使った認証」を行うための一時的な補助ツールとして使っただけです。最終的に、Macで取得したトークン情報(access_tokenなど)をNASのrcloneに貼り付けたことで、NAS自身がpCloudと直接通信できる状態になりました。
🔐 なぜMacが必要だったの?
- rcloneのpCloud連携には「ブラウザを使ったOAuth認証」が必要
- Synology NASにはブラウザがないため、rcloneだけでは認証URLにアクセスできない
- そこでMacにrcloneを一時インストールし、
rclone authorize
コマンドでトークンを取得 - そのトークンをNAS側にコピペすれば、以降はNAS単体で認証済み状態となる
📌 イメージ図:どのように役割分担されている?
デバイス | 役割 | いつ使う? |
---|---|---|
Mac | rcloneの認証URLを開いて、pCloudと連携する「一時的な認証補助」 | 初回のみ(設定時だけ) |
Synology NAS | rcloneを使って、フォルダをpCloudに自動でバックアップ | 毎日定期的に(cronやタスクスケジューラで) |
🚫 誤解してほしくないこと
- Macを通してバックアップされているわけではない
- データは「NAS → pCloud」に直接送られる
- Macは今後のバックアップ運用には一切関与しません
🔁 今後の流れ(NAS単体で完結)
rclone copy
またはrclone sync
でテスト実行- 上記コマンドをスクリプトにまとめる
- Synologyのタスクスケジューラで定期実行
ここまでで、rcloneによるNAS → pCloudのバックアップ基盤がNASだけで完全に構築されたことになります。Macにインストールしたrcloneは、もう削除しても構いません。
🧪 テストアップロードでrcloneの動作確認をしよう
ここまででrcloneの設定は完了しましたが、本当にバックアップできるのか、最初に1ファイルだけでテストしてみるのが確実です。
今回はNAS上に小さなテキストファイルを作り、それをpCloudにアップロードする手順を紹介します。
① テスト用ファイルをNAS上に作成
まずは、バックアップ元となる「work」フォルダにテストファイルを作りましょう。
echo "rclone test upload" > /volume1/work/rclone-test.txt
これで「rclone-test.txt」という19バイトのテキストファイルが作成されます。
② rcloneでpCloudにアップロードしてみる
作成したファイルを、pCloud内の /test
フォルダにアップロードしてみます:
rclone copy /volume1/work/rclone-test.txt pcloud:test --config /volume1/scripts/rclone.conf -P
pcloud:test
:pCloud内の/test
フォルダを指定--config
:設定ファイルのパスを明示-P
:進行状況(Progress)を表示(省略可)
③ アップロード結果を確認する
pCloud側にアップロードできたか、次のコマンドでファイル一覧を確認します:
rclone ls pcloud:test --config /volume1/scripts/rclone.conf
結果として以下のような出力が得られれば、アップロード成功です:
19 rclone-test.txt
19
はファイルサイズ(バイト数)を示しています。
④ ファイル一覧コマンドが止まらないときの対処法
rclone ls /volume1/work
のようにフォルダ全体をリストしようとすると、ファイルが多すぎて処理が止まらなくなることがあります。
そんなときは:
Ctrl + C
で処理を強制停止できます(^C と表示されます)。
💡 テスト時は「ファイル名を直接指定」するのが安全
rclone ls /volume1/work/rclone-test.txt
…のように、単体ファイルだけを対象にすれば、安全・確実にテストできます。
🎉 テスト成功の目安
次のようなログが確認できたら、あなたの Synology NAS → pCloud へのアップロード環境は完成しています:
19 rclone-test.txt
このテストが通れば、次は「複数ファイルのバックアップ」「スクリプト化」「cron登録による自動実行」へと進んでいけます。
🕒 バックアップの実行タイミングと設定方法
rcloneを使ってNASからpCloudへ定期的にバックアップするなら、「いつ・どのように実行するか?」が非常に重要です。
ここでは、おすすめの実行時間帯と、実際にバックアップコマンドをどう組み立てるかを解説します。
🤔 バックアップは「いつ」実行すべきか?
バックアップはどの時間帯に実行しても動作はしますが、タイミングを間違えるとトラブルの元になります。
- 日中に実行すると、NAS内の作業中データと競合することがある
- 夜間すぎると、NASの省電力モードや自動停止とぶつかることがある
- pCloud側の混雑時間帯に当たると、アップロードが遅くなったり失敗する可能性も
🌍 世界の時差とpCloudのサーバー位置
pCloudはスイスの企業で、サーバーはおそらく ヨーロッパ時間(UTC+1) を基準に稼働しています。
そのため、pCloud側の利用者が少ない時間帯を狙うには、以下のように日本時間に換算して考えると良いでしょう:
日本時間 | ヨーロッパ時間(UTC+1) | サーバー負荷の見込み |
---|---|---|
2:00〜6:00 | 18:00〜22:00(前日) | 混雑している可能性あり |
6:00〜9:00 | 22:00〜1:00(夜) | ✅ 比較的空いている |
9:00〜12:00 | 1:00〜4:00(深夜) | ✅ 非常に空いている可能性が高い |
12:00〜18:00 | 4:00〜10:00 | 少しずつ混み始める |
📌 結論:おすすめは「日本時間の朝6時前後」
朝6:00〜6:15 の間にバックアップを実行するのが最適です。
- pCloud側の負荷が軽く、転送がスムーズ
- NASを人が操作していない時間帯が多く、競合トラブルも避けやすい
📂 バックアップ用のコマンド例
次のようなrcloneコマンドを使えば、NASの/volume1/work
フォルダをpCloudの/work
に同期(ミラーリング)できます:
/usr/bin/rclone sync /volume1/work pcloud:work \
--config /volume1/scripts/rclone.conf \
--log-file /volume1/scripts/rclone.log \
--log-level INFO
sync
:pCloud上のファイルをNASと同じ状態に揃える(削除も同期)--config
:rclone設定ファイルのパス--log-file
:実行ログを保存(後で確認できて安心)--log-level INFO
:通常レベルの情報をログに出力
このコマンドをスクリプトファイル(例:backup-to-pcloud.sh
)にして、Synologyのタスクスケジューラで毎朝6:00に自動実行すれば、完璧なバックアップ体制が構築できます。
次は、このスクリプトの作成方法とタスクスケジューラへの登録手順を解説します。
📝 バックアップスクリプトの作成とタスクスケジューラ登録
pCloudへのrcloneバックアップを自動化するには、まずスクリプトファイル(.sh)を作成し、それをSynologyのタスクスケジューラに登録します。
ここでは、手順を1つずつわかりやすく解説していきます。
📁 ① スクリプトファイルを作成する
まず、NASの /volume1/scripts
フォルダに、バックアップ処理を記述したシェルスクリプトを作成します。
SSHでNASにログインし、次のように入力してください:
cd /volume1/scripts
nano backup-to-pcloud.sh
エディタが開いたら、次の内容をそのまま貼り付けます:
#!/bin/bash
# バックアップ元と先
SRC="/volume1/work"
DEST="pcloud:work"
# rcloneのパスと設定ファイル
RCLONE="/usr/bin/rclone"
CONF="/volume1/scripts/rclone.conf"
LOG="/volume1/scripts/rclone.log"
# 実行コマンド
$RCLONE sync "$SRC" "$DEST" --config "$CONF" --log-file "$LOG" --log-level INFO
貼り付けたら、Ctrl + O
→ Enter
→ Ctrl + X
で保存して終了します。
🔐 実行権限を付ける
以下のコマンドでスクリプトに実行権限を付けましょう:
chmod +x /volume1/scripts/backup-to-pcloud.sh
📆 ② Synologyのタスクスケジューラに登録する
次に、Synology DSMの管理画面から、スクリプトを定期実行する設定を行います。
📌 手順
- DSMに管理者アカウントでログイン
- [コントロールパネル] → [タスクスケジューラ] を開く
- [作成] → [ユーザー指定のスクリプト] を選択
- 名前:
pCloud Backup
など分かりやすい名称を入力 - ユーザー:
root
を選択(※バックアップのために必要) - [スケジュール] タブで次のように設定:
- 頻度:毎日
- 時間:6:00(朝の低負荷時間帯)
- [タスク設定] タブで、次のコマンドを入力:
/volume1/scripts/backup-to-pcloud.sh
最後に [OK] をクリックすれば登録完了です!
✅ 登録後にやっておきたいこと
- 翌朝、pCloudにバックアップされているかを確認
/volume1/scripts/rclone.log
を確認して、実行エラーがないかチェック
もし手動で試したい場合は、以下のコマンドをSSHから直接実行すればOKです:
/volume1/scripts/backup-to-pcloud.sh
🎉 これで毎朝自動バックアップが動き出します!
Synology NASの中にある「work」フォルダの内容が、pCloudの「/work」フォルダに毎日同期されるようになりました。トラブルが起きにくい時間帯を選び、ログ出力もしているため、安心して運用できます。
⏳ 初回バックアップにかかる時間と改善のヒント
バックアップ環境の構築が完了し、いよいよ初回の rclone sync
を実行したところで、次に気になるのは「これ、いつ終わるの?」ということだと思います。
実際、初回はフルバックアップになるため、大量のデータをアップロードする場合は相当な時間がかかることがあります。
🟢 今回の実行コマンド
/usr/bin/rclone sync /volume1/work pcloud:work \
--config /volume1/scripts/rclone.conf \
--transfers=4 \
--checkers=8 \
--progress \
--log-file=/volume1/scripts/rclone-log.txt
ここで使用した --transfers
と --checkers
の値はパフォーマンスに影響しますが、それでもネットワークやファイル構成によって転送速度には差があります。
📊 実測からのざっくり見積もり
現在ターミナルに表示されている情報は以下のような状態です:
- アップロード済み:
490.5 MiB
(≒0.49 GiB) - 対象ファイルサイズ合計(表示範囲):
11.854 GiB
- 転送速度:
1011.985 KiB/s
(≒約1 MiB/s) - ETA(予測残り時間):約3時間16分
この情報から、約1 GiBあたり16.5分のペースで進んでいることが分かります。
🔢 NASの使用容量から推定
今回バックアップ対象のNAS共有フォルダ「work」は約 1.05 TB(=約1075 GiB) です。
1 GiBあたり16.5分 × 1075 GiB ≒ 約17,737分(≒295時間 ≒ 約12日)
🔄 ただし!改善要素も多数あり
この見積もりはあくまで「初期の平均速度がずっと続いた場合」の計算です。
実際には以下のような理由で、後半になるほどスピードアップする可能性が高いです:
- 小さいファイル(画像・設定ファイルなど)の転送が最初に集中し、処理コストが高く見積もられている
- 大きな動画ファイルなどは単位時間あたりの転送量が増えやすい
- rcloneがキャッシュをうまく活用する
- 時間帯によってpCloud側の通信速度が変動(夜間→早朝に向けて速くなる)
🚀 高速化のためにできること
項目 | 説明 |
---|---|
--transfers |
同時転送数を増やす(例:4 → 8など)。CPU・帯域に余裕があれば効果的。 |
--checkers |
チェック作業の並列数。小ファイルが多い場合に増やすと高速化する場合あり。 |
実行時間の工夫 | 日本時間の早朝(6:00〜9:00)はpCloud側が空いていて通信が安定しやすい |
📌 結論:初回は気長に、2回目以降は高速に
初回のフルバックアップは、思ったよりも時間がかかることがよくあります。ですが、2回目以降は「差分(変更されたファイル)だけ」を転送するようになるため、所要時間は大幅に短縮されます。
焦らず、まずは1回目をしっかり完了させましょう。進行状況は --progress
やログファイル(rclone-log.txt
)で随時確認できます。
🏁 初回バックアップはバックグラウンドで実行&慎重に管理しよう
さて、いよいよ実際のバックアップを始める段階に来ました。
ただし初回バックアップはとにかく時間がかかる可能性があります。ターミナルを開いたまま数日待つわけにもいかないので、ここではバックグラウンド実行(&)+nohupを使って、途中で停止しないように工夫します。
🧰 使用コマンドとその意味
nohup rclone copy /volume1/work pcloud:work \
--config /volume1/scripts/rclone.conf \
--log-file=/volume1/scripts/rclone-nohup.log \
--transfers=4 \
--checkers=8 \
--progress &
構文 | 意味 |
---|---|
nohup |
ターミナルを閉じてもプロセスが継続する("No Hang Up") |
rclone copy |
pCloudへファイルをコピー(削除はしない) |
--config |
rclone設定ファイルのパスを明示 |
--log-file |
実行ログを保存(後で進捗確認に使う) |
--transfers |
同時に転送するファイル数(初期値は4程度で様子見) |
--checkers |
ファイルチェックの並列処理数 |
--progress |
進行状況を表示(ターミナルでのリアルタイム確認) |
& |
コマンドをバックグラウンドで実行(ターミナルを占有しない) |
⚠️ タスクスケジューラは一時的に無効化を
このバックグラウンド実行は初回のみの想定です。自動実行と同時に動くと競合の恐れがあるため、Synologyのタスクスケジューラは一時的に「無効」にしておくことを強く推奨します。
タスクの一覧で右クリック → [無効化] を選んでおくだけでOKです。
📄 進行ログの確認方法
バックグラウンドで動いている rclone の進行状況を確認するには、次のようにログを「追いかけ表示」するのが便利です:
tail -f /volume1/scripts/rclone-nohup.log
-f
はファイルの末尾をリアルタイムで表示し続けるオプションです。
ログの中身の見方
- INFO行:現在処理中のファイルパスや結果
- ERROR行:ネットワーク切断やタイムアウトなどが表示される(要注意)
- 最終行に
Transferred:
と表示されていれば完了メッセージです
🌀 エラーが出ても慌てないで
今回、実際には設定完了までに約3時間かかりました。その間に何度もエラーに直面し、調べたり試したりの繰り返しでしたが、振り返ってみればやっておいて本当によかったと思える作業でした。
とくに初回は環境ごとの違いや設定ミスなどでうまくいかないことも多いですが、慌てずにログを確認しながら少しずつ進めれば、必ずゴールにたどり着けます。
また、仮に途中で失敗しても、rcloneは中断したところから再開可能なため、最初からやり直す必要はありません。安心して取り組んでください。
✅ 初回バックアップが完了したら
すべてのファイルのバックアップが完了し、rclone-nohup.log
に完了メッセージが表示されていれば、いよいよ運用フェーズに入れます。
忘れずに、Synologyのタスクスケジューラを「有効化」に戻しましょう。
- [コントロールパネル] → [タスクスケジューラ]
- 無効化していたタスクを右クリック → [有効化]
- 以後は、毎朝自動でバックアップされる安心な状態に!
🎉 ひとまず、これで準備は完了です!
ここまでお疲れさまでした。
このガイドを通じて、Synology NASとpCloudを連携させた安定・安全・自動なバックアップ体制が構築できたはずです。あとは定期的にログを確認しながら、万一のトラブルにも備えていきましょう。
最後に一言:
バックアップは「やっててよかった」と思う日が必ず来る。