| Both sides previous revisionPrevious revisionNext revision | Previous revision |
| social:leaks [2025/10/30] – external edit (Unknown date) 127.0.0.1 | social:leaks [2026/02/05] (current) – [Epstein Files (2026)] hayati |
|---|
| ~~NOTRANS~~ | ~~NOTRANS~~ {{indexmenu_n>100}} |
| {{indexmenu_n>100}} | |
| |
| ====== LEAKS ====== | ====== LEAKS ====== |
| ===== RKI ===== | ===== RKI ===== |
| |
| Der Download der neuen [[https://x.com/aya_velazquez/status/1815567564694515876|ungeschwärzten RKI-Dateien]] gestaltet sich bis heute schwierig. Diese Daten wurde später auch als [[https://x.com/aya_velazquez/status/1817316208783618458|Torrent]] bereitgestellt. | Der Download der neuen [[https://x.com/aya_velazquez/status/1815567564694515876|ungeschwärzten RKI-Dateien]] gestaltet sich bis heute schwierig. Diese Daten wurde später auch als [[https://x.com/aya_velazquez/status/1817316208783618458|Torrent]] bereitgestellt. Die Webseite [[https://rki-transparenzbericht.de/|https://rki-transparenzbericht.de/]] mit den Daten ist (aktuell) leider nicht erreichbar. |
| Die Webseite [[https://rki-transparenzbericht.de/|https://rki-transparenzbericht.de/]] mit den Daten ist (aktuell) leider nicht erreichbar. | |
| |
| Dank an [[https://x.com/aya_velazquez|Aya Velázquez]], dem unbekannten Whistleblower sowie allen weiteren Beteiligten für diesen Leak. | Dank an [[https://x.com/aya_velazquez|Aya Velázquez]], dem unbekannten Whistleblower sowie allen weiteren Beteiligten für diesen Leak. |
| 468 Seiten Original Emailverkehr zwischen Kanzleramt und Expertenrat | 468 Seiten Original Emailverkehr zwischen Kanzleramt und Expertenrat |
| |
| https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19 | [[https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19|https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19]] |
| | |
| | ===== Israel Exposed Archives / Gaza ===== |
| | |
| | [[https://watermeloncrimes.com/archives|https://watermeloncrimes.com/archives]] |
| | |
| | see X-Post for some notes: [[https://x.com/xIsraelExposedx/status/1988735326517444791|https://x.com/xIsraelExposedx/status/1988735326517444791]] |
| | |
| | ===== Epstein Files (2026) ===== |
| | |
| | [[https://www.justice.gov/epstein/doj-disclosures|https://www.justice.gov/epstein/doj-disclosures]] |
| | |
| | Die dort bereitgestellt Archive je Data Set sind leider wieder weg. |
| | Scheinbar werden einzelne Dokumente nachträglich noch depubliziert (unpublished)! |
| | Für 'Data Set 9' gab es das Archiv nie vollständig bzw. nur korrupt und somit unbrauchbar. |
| | |
| | Auf Reddit gibt es Diskussion, wer/wie was bereits heruntergeladen und gesichert hat: |
| | |
| | * [[https://www.reddit.com/r/DataHoarder/comments/1qsfv3j/epstein_9_10_11_12_reddit_keeps_nuking_thread_we/|Reddit 1]] |
| | * [[https://www.reddit.com/r/DataHoarder/comments/1qrk3qk/removed_by_reddit/|Reddit 2]] |
| | |
| | Magnet links und torrents finden sich hier für die schwierigeren Datensätze (data sets). Siehe unten: da sind die Magnet links übersichtlich zusammengestellt. |
| | |
| | Zum Auskundschaften aller 'Pages' - mit bis zu 50 Dokument-Links je Page - konnte ich dieses Python-Skript auf [[https://pastebin.com/zbF0Rmfx|PasteBin-Link]] ausmachen. Unter Linux - auch in einer //Windows Subsystem for Linux// (WSL) kriege ich es zumindest für die Ermittlung der Dokumente zum Laufen. Es nutzt Playwright und automatisiert den Seitenabruf mit einem Chromium-Browser. |
| | |
| | Mit minimaler Anpassung der Pfade lief das - in mehreren Versuchen durch - und ermittelte mir 279'753 Einzeldokumente aus knapp 20'500 Pages. Ergebnis ist die JSON-Datei ''dataset9_index.json''. |
| | |
| | Mit dem Download der Einzeldokumente der PDFs hat das Skript ein Problem: Es hängt je PDF Datei! |
| | |
| | <code> |
| | ./parse_dataset9.py printurls >urls.txt |
| | </code> |
| | |
| | bekomme ich ein flache Liste der Dokument-URLs, |
| | die ich dann mit einem simplen Bash Skript ''get_all_urls.sh'' unter Nutzung von ''wget'' herunterlade .. |
| | |
| | Das von mir angepasste python sowie das neue bash-Skript inkl. der ermittelten ''dataset9_index.json'' und ''urls.txt'' findet sich hier [[https://codingspirit.de/parse_dataset9.zip|https://codingspirit.de/parse_dataset9.zip]] mit einer Größe von 2,5 MB. |
| | |
| | Hinterher sollte ich die Fehler aus dem Log File ''get_all.log'' ermitteln können. |
| | |
| | |
| | Für reine einfache Sichtung ist [[https://www.jmail.world/|Jmail]] sehr zu empfehlen. |
| | |
| | Weitere Archive/Links auch hier [[https://datahoarding.org/archives.html#EpsteinFilesArchive|DataHoarding Archives]]. Die letzten 2 verlinkten Seiten enthalten Magnet/Torrent Links: [[https://pastes.io/dataset-1-|Epstein Data Sets]] und [[https://github.com/yung-megafone/Epstein-Files|Epstein Files]] mit etwas mehr Erklärung. |