User Tools

Site Tools


social:leaks

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
social:leaks [2025/12/29] – [Israel Exposed Archives / Gaza] hayatisocial:leaks [2026/02/05] (current) – [Epstein Files (2026)] hayati
Line 25: Line 25:
 see X-Post for some notes: [[https://x.com/xIsraelExposedx/status/1988735326517444791|https://x.com/xIsraelExposedx/status/1988735326517444791]] see X-Post for some notes: [[https://x.com/xIsraelExposedx/status/1988735326517444791|https://x.com/xIsraelExposedx/status/1988735326517444791]]
  
 +===== Epstein Files (2026) =====
 +
 +[[https://www.justice.gov/epstein/doj-disclosures|https://www.justice.gov/epstein/doj-disclosures]]
 +
 +Die dort bereitgestellt Archive je Data Set sind leider wieder weg.
 +Scheinbar werden einzelne Dokumente nachträglich noch depubliziert (unpublished)!
 +Für 'Data Set 9' gab es das Archiv nie vollständig bzw. nur korrupt und somit unbrauchbar.
 +
 +Auf Reddit gibt es Diskussion, wer/wie was bereits heruntergeladen und gesichert hat:
 +
 +  * [[https://www.reddit.com/r/DataHoarder/comments/1qsfv3j/epstein_9_10_11_12_reddit_keeps_nuking_thread_we/|Reddit 1]]
 +  * [[https://www.reddit.com/r/DataHoarder/comments/1qrk3qk/removed_by_reddit/|Reddit 2]]
 +
 +Magnet links und torrents finden sich hier für die schwierigeren Datensätze (data sets). Siehe unten: da sind die Magnet links übersichtlich zusammengestellt.
 +
 +Zum Auskundschaften aller 'Pages' - mit bis zu 50 Dokument-Links je Page - konnte ich dieses Python-Skript auf [[https://pastebin.com/zbF0Rmfx|PasteBin-Link]] ausmachen. Unter Linux - auch in einer //Windows Subsystem for Linux// (WSL) kriege ich es zumindest für die Ermittlung der Dokumente zum Laufen. Es nutzt Playwright und automatisiert den Seitenabruf mit einem Chromium-Browser.
 +
 +Mit minimaler Anpassung der Pfade lief das - in mehreren Versuchen durch - und ermittelte mir 279'753 Einzeldokumente aus knapp 20'500 Pages. Ergebnis ist die JSON-Datei ''dataset9_index.json''.
 +
 +Mit dem Download der Einzeldokumente der PDFs hat das Skript ein Problem: Es hängt je PDF Datei!
 +
 +<code>
 +./parse_dataset9.py printurls >urls.txt
 +</code>
 +
 +bekomme ich ein flache Liste der Dokument-URLs,
 +die ich dann mit einem simplen Bash Skript ''get_all_urls.sh'' unter Nutzung von ''wget'' herunterlade ..
 +
 +Das von mir angepasste python sowie das neue bash-Skript inkl. der ermittelten ''dataset9_index.json'' und ''urls.txt'' findet sich hier [[https://codingspirit.de/parse_dataset9.zip|https://codingspirit.de/parse_dataset9.zip]] mit einer Größe von 2,5 MB.
 +
 +Hinterher sollte ich die Fehler aus dem Log File ''get_all.log'' ermitteln können.
 +
 +
 +Für reine einfache Sichtung ist [[https://www.jmail.world/|Jmail]] sehr zu empfehlen.
 +
 +Weitere Archive/Links auch hier [[https://datahoarding.org/archives.html#EpsteinFilesArchive|DataHoarding Archives]]. Die letzten 2 verlinkten Seiten enthalten Magnet/Torrent Links: [[https://pastes.io/dataset-1-|Epstein Data Sets]] und [[https://github.com/yung-megafone/Epstein-Files|Epstein Files]] mit etwas mehr Erklärung.
  
social/leaks.1766964858.txt.gz · Last modified: by hayati