User Tools

Site Tools


social:leaks

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
social:leaks [2025/10/30] – external edit (Unknown date) 127.0.0.1social:leaks [2026/02/05] (current) – [Epstein Files (2026)] hayati
Line 1: Line 1:
-~~NOTRANS~~ +~~NOTRANS~~ {{indexmenu_n>100}}
-{{indexmenu_n>100}}+
  
 ====== LEAKS ====== ====== LEAKS ======
Line 6: Line 5:
 ===== RKI ===== ===== RKI =====
  
-Der Download der neuen [[https://x.com/aya_velazquez/status/1815567564694515876|ungeschwärzten RKI-Dateien]] gestaltet sich bis heute schwierig. Diese Daten wurde später auch als [[https://x.com/aya_velazquez/status/1817316208783618458|Torrent]] bereitgestellt. +Der Download der neuen [[https://x.com/aya_velazquez/status/1815567564694515876|ungeschwärzten RKI-Dateien]] gestaltet sich bis heute schwierig. Diese Daten wurde später auch als [[https://x.com/aya_velazquez/status/1817316208783618458|Torrent]] bereitgestellt. Die Webseite [[https://rki-transparenzbericht.de/|https://rki-transparenzbericht.de/]] mit den Daten ist (aktuell) leider nicht erreichbar.
-Die Webseite [[https://rki-transparenzbericht.de/|https://rki-transparenzbericht.de/]] mit den Daten ist (aktuell) leider nicht erreichbar.+
  
 Dank an [[https://x.com/aya_velazquez|Aya Velázquez]], dem unbekannten Whistleblower sowie allen weiteren Beteiligten für diesen Leak. Dank an [[https://x.com/aya_velazquez|Aya Velázquez]], dem unbekannten Whistleblower sowie allen weiteren Beteiligten für diesen Leak.
Line 19: Line 17:
 468 Seiten Original Emailverkehr zwischen Kanzleramt und Expertenrat 468 Seiten Original Emailverkehr zwischen Kanzleramt und Expertenrat
  
-https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19+[[https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19|https://x.com/aya_velazquez/status/1829782828634010066?t=ZANKWiA6Q3uqZSKjsXolRg&s=19]] 
 + 
 +===== Israel Exposed Archives / Gaza ===== 
 + 
 +[[https://watermeloncrimes.com/archives|https://watermeloncrimes.com/archives]] 
 + 
 +see X-Post for some notes: [[https://x.com/xIsraelExposedx/status/1988735326517444791|https://x.com/xIsraelExposedx/status/1988735326517444791]] 
 + 
 +===== Epstein Files (2026) ===== 
 + 
 +[[https://www.justice.gov/epstein/doj-disclosures|https://www.justice.gov/epstein/doj-disclosures]] 
 + 
 +Die dort bereitgestellt Archive je Data Set sind leider wieder weg. 
 +Scheinbar werden einzelne Dokumente nachträglich noch depubliziert (unpublished)! 
 +Für 'Data Set 9' gab es das Archiv nie vollständig bzw. nur korrupt und somit unbrauchbar. 
 + 
 +Auf Reddit gibt es Diskussion, wer/wie was bereits heruntergeladen und gesichert hat: 
 + 
 +  * [[https://www.reddit.com/r/DataHoarder/comments/1qsfv3j/epstein_9_10_11_12_reddit_keeps_nuking_thread_we/|Reddit 1]] 
 +  * [[https://www.reddit.com/r/DataHoarder/comments/1qrk3qk/removed_by_reddit/|Reddit 2]] 
 + 
 +Magnet links und torrents finden sich hier für die schwierigeren Datensätze (data sets). Siehe unten: da sind die Magnet links übersichtlich zusammengestellt. 
 + 
 +Zum Auskundschaften aller 'Pages' - mit bis zu 50 Dokument-Links je Page - konnte ich dieses Python-Skript auf [[https://pastebin.com/zbF0Rmfx|PasteBin-Link]] ausmachen. Unter Linux - auch in einer //Windows Subsystem for Linux// (WSL) kriege ich es zumindest für die Ermittlung der Dokumente zum Laufen. Es nutzt Playwright und automatisiert den Seitenabruf mit einem Chromium-Browser. 
 + 
 +Mit minimaler Anpassung der Pfade lief das - in mehreren Versuchen durch - und ermittelte mir 279'753 Einzeldokumente aus knapp 20'500 Pages. Ergebnis ist die JSON-Datei ''dataset9_index.json''
 + 
 +Mit dem Download der Einzeldokumente der PDFs hat das Skript ein Problem: Es hängt je PDF Datei! 
 + 
 +<code> 
 +./parse_dataset9.py printurls >urls.txt 
 +</code> 
 + 
 +bekomme ich ein flache Liste der Dokument-URLs, 
 +die ich dann mit einem simplen Bash Skript ''get_all_urls.sh'' unter Nutzung von ''wget'' herunterlade .. 
 + 
 +Das von mir angepasste python sowie das neue bash-Skript inkl. der ermittelten ''dataset9_index.json'' und ''urls.txt'' findet sich hier [[https://codingspirit.de/parse_dataset9.zip|https://codingspirit.de/parse_dataset9.zip]] mit einer Größe von 2,5 MB. 
 + 
 +Hinterher sollte ich die Fehler aus dem Log File ''get_all.log'' ermitteln können. 
 + 
 + 
 +Für reine einfache Sichtung ist [[https://www.jmail.world/|Jmail]] sehr zu empfehlen. 
 + 
 +Weitere Archive/Links auch hier [[https://datahoarding.org/archives.html#EpsteinFilesArchive|DataHoarding Archives]]. Die letzten 2 verlinkten Seiten enthalten Magnet/Torrent Links: [[https://pastes.io/dataset-1-|Epstein Data Sets]] und [[https://github.com/yung-megafone/Epstein-Files|Epstein Files]] mit etwas mehr Erklärung. 
social/leaks.1761855856.txt.gz · Last modified: by 127.0.0.1