多重処理、つまり「aというバックアップにあった記事」が、何かの手違いでbというバックアップにも混在しており、それが2つの別個の記事としてはてなにアップロードされる…
この事態は避けたいところである。
ではどーすればいいのか?
RDSはインストールしてないけど、基本的にそれほど大量のデータではないと思われる。そのため、
- pickleで辞書を書き出して、その辞書を継続的に利用する。辞書をデータベース的に使う。
- 辞書のキーは日付にする。日付が重複することはあり得ないし、文字数も固定で使い勝手がよさそうだ
- 「日付に対応する記事タイトルが存在すれば、その記事はアップロードずみである」
- タイトルが違った場合は?何らかのエラーなのでエラーを表示する。
- 処理の最外周にpickleを配置し、何が起きようとかならずfinallyで補足してアップロード辞書をシリアライズする
こんなとこかな