~~NOTRANS~~ {{indexmenu_n>100}} ====== LEAKS ====== ===== RKI ===== Der Download der neuen [[https://x.com/aya_velazquez/status/1815567564694515876|ungeschwärzten RKI-Dateien]] gestaltet sich bis heute schwierig. Diese Daten wurde später auch als [[https://x.com/aya_velazquez/status/1817316208783618458|Torrent]] bereitgestellt. Die Webseite [[https://rki-transparenzbericht.de/|https://rki-transparenzbericht.de/]] mit den Daten ist (aktuell) leider nicht erreichbar. Dank an [[https://x.com/aya_velazquez|Aya Velázquez]], dem unbekannten Whistleblower sowie allen weiteren Beteiligten für diesen Leak. Der einfachste Weg zum Download dürfte aktuell mit einem Torrent Client/Programm, wie z.B. [[https://transmissionbt.com/|Transmission]] sein. Das Programm Transmission steht auch innerhalb der Suite [[https://portableapps.com/|PortableApps]] zur Verfügung. Benötigt wird noch dieses [[https://codingspirit.de/RKI_Files_2020-2023.torrent|Torrent File]], dann kann per Drag & Drop dieses Files in das Transmission Fenster der Download starten. ===== Expertenrat / Kanzleramt ===== 468 Seiten Original Emailverkehr zwischen Kanzleramt und Expertenrat [[https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19|https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19]] ===== Israel Exposed Archives / Gaza ===== [[https://watermeloncrimes.com/archives|https://watermeloncrimes.com/archives]] see X-Post for some notes: [[https://x.com/xIsraelExposedx/status/1988735326517444791|https://x.com/xIsraelExposedx/status/1988735326517444791]] ===== Epstein Files (2026) ===== [[https://www.justice.gov/epstein/doj-disclosures|https://www.justice.gov/epstein/doj-disclosures]] Die dort bereitgestellt Archive je Data Set sind leider wieder weg. Scheinbar werden einzelne Dokumente nachträglich noch depubliziert (unpublished)! Für 'Data Set 9' gab es das Archiv nie vollständig bzw. nur korrupt und somit unbrauchbar. Auf Reddit gibt es Diskussion, wer/wie was bereits heruntergeladen und gesichert hat: * [[https://www.reddit.com/r/DataHoarder/comments/1qsfv3j/epstein_9_10_11_12_reddit_keeps_nuking_thread_we/|Reddit 1]] * [[https://www.reddit.com/r/DataHoarder/comments/1qrk3qk/removed_by_reddit/|Reddit 2]] Magnet links und torrents finden sich hier für die schwierigeren Datensätze (data sets). Siehe unten: da sind die Magnet links übersichtlich zusammengestellt. Zum Auskundschaften aller 'Pages' - mit bis zu 50 Dokument-Links je Page - konnte ich dieses Python-Skript auf [[https://pastebin.com/zbF0Rmfx|PasteBin-Link]] ausmachen. Unter Linux - auch in einer //Windows Subsystem for Linux// (WSL) kriege ich es zumindest für die Ermittlung der Dokumente zum Laufen. Es nutzt Playwright und automatisiert den Seitenabruf mit einem Chromium-Browser. Mit minimaler Anpassung der Pfade lief das - in mehreren Versuchen durch - und ermittelte mir 279'753 Einzeldokumente aus knapp 20'500 Pages. Ergebnis ist die JSON-Datei ''dataset9_index.json''. Mit dem Download der Einzeldokumente der PDFs hat das Skript ein Problem: Es hängt je PDF Datei! ./parse_dataset9.py printurls >urls.txt bekomme ich ein flache Liste der Dokument-URLs, die ich dann mit einem simplen Bash Skript ''get_all_urls.sh'' unter Nutzung von ''wget'' herunterlade .. Das von mir angepasste python sowie das neue bash-Skript inkl. der ermittelten ''dataset9_index.json'' und ''urls.txt'' findet sich hier [[https://codingspirit.de/parse_dataset9.zip|https://codingspirit.de/parse_dataset9.zip]] mit einer Größe von 2,5 MB. Hinterher sollte ich die Fehler aus dem Log File ''get_all.log'' ermitteln können. Für reine einfache Sichtung ist [[https://www.jmail.world/|Jmail]] sehr zu empfehlen. Weitere Archive/Links auch hier [[https://datahoarding.org/archives.html#EpsteinFilesArchive|DataHoarding Archives]]. Die letzten 2 verlinkten Seiten enthalten Magnet/Torrent Links: [[https://pastes.io/dataset-1-|Epstein Data Sets]] und [[https://github.com/yung-megafone/Epstein-Files|Epstein Files]] mit etwas mehr Erklärung.