返信の受付は終了いたしました。
-
-
- 読み込み中...
Pythonで各サイトに応じたクローラー(スクレイピング)を自作するか、
有料のWEBスクレイピングツールを使うしかないかなぁ。
あとWebサイトをフォルダ構造丸ごと保存するwinアプリもあるけど怪しいか。 -
-
-
- 読み込み中...
無料でもpower automate desktop使えば一応出来ると思いますよ
まぁpython程、早く処理はできないですが... -
-
-
- 読み込み中...
wgetをインストールして、wget -m -p -E -k -np {対象URL}
で丸ごとダウンロードできるよ -
-
-
- 読み込み中...
昔はそれでやってたんだけど、最近はajaxで後からコンテンツ追加する仕組みも増えたんで、片手落ちなんだよね、このやり方…
そこまで配慮してやるなら、Puppeteerとかしかないかな… -
1ページずつ測定して合算する以外に方法ありましたらご教示いただきたいです