Frage

Ich meine über 100 MB groß; solche Textdateien, den Umschlag von Redakteuren drücken können.

Ich brauche durch eine große XML-Datei zu suchen, kann aber nicht, wenn der Editor ist fehlerhaft.

Irgendwelche Vorschläge?

War es hilfreich?

Lösung

VS-Code (Windows, MacOS, Linux) - Freie und Open Source mit einem netten GUI. eine 3,6 GB JSON-Datei geladen in einer Minute bearbeitet. Sie müssen über genügend RAM haben, die Dateien zu laden.

Free read-only Zuschauer:

  • glogg (Windows, MacOS, Linux) - bestätigt Multi-GB-Dateien verarbeiten. Sein Hauptmerkmal ist regulärer Ausdruck sucht. Hat Registerkarten, liest Dateien direkt von der Festplatte, können Dateien sehen / folgen, und ermöglicht dem Benutzer, Linien zu markieren.
  • LogExpert (Windows) - "Ein GUI-Ersatz für tail." Unterstützt Datei folgende, Suchen, Filtern, konfigurierbare Hervorhebung, Plugins und externe Tools.
  • Großer Text File Viewer (Windows) - Minimalist und hat sehr kleine Größe der ausführbaren Datei. Unterstützt geteilte Ansicht, Text Themenanpassung, regex Suche und Datei folgen.
  • Lister (Windows) - Noch mehr kleine und minimalistisch. Es ist eine ausführbare Datei, knapp 500 KB, aber es unterstützt noch auf der Suche (mit regulären Ausdrücken), Druck, einen Hex-Editor Modus und Einstellungen.

Free Herausgeber:

  • Vim und Emacs (Windows, MacOS, Linux) - klassische Unix-Editoren. Steile Lernkurve, aber brutal effizient. Sie haben Einstellungen, die abgestimmt werden kann, sie noch schneller zu machen.
  • Large File Editor (Windows) - öffnet und bearbeitet TB + Dateien, unterstützt Unicode, verbraucht wenig Speicher, hat XML-spezifische Funktionen und enthält einen binär-Modus.
  • HxD (Windows) - Ein Hex-Editor, nicht ein Texteditor; aber es ist erstaunlich schnell und nützlich.
  • GigaEdit (Windows) - Unterstützt die Suche, Charakter-Statistiken, und Schriftartanpassung. Aber es ist Buggy - mit großen Dateien, erlaubt es nur Zeichen zu überschreiben, nicht das Einfügen ihnen; es nicht respektiert LF als Zeilenabschluss, nur CRLF; und es ist langsam.

Builtin Programme (keine Installation erforderlich):

  • weniger (MacOS, Linux) - Die traditionelles Unix-Kommandozeilen-Pager-Tool. Hier können Sie Textdateien von praktisch jeder Größe. Kann auch für Windows installiert werden.
  • Notepad (Windows) - Decent mit großen Dateien, vor allem mit Wort drehte Wrap aus.
  • MORE (Windows) - Dies bezieht sich auf den Windows-MORE , nicht der Unix more. Ein Konsolenprogramm, das Sie eine Datei anzeigen können, einen Bildschirm auf einmal.

Web Viewer:

  • htmlpen.com - Kann öffnen und Syntax-Highlight TB + Dateien. Ermöglicht die Bearbeitung, außer bei sehr großen Dateien. Unterstützt die Suche, reguläre Ausdrücke und exportieren.
  • readfileonline.com - Ein weiterer HTML5 große Datei-Viewer. Unterstützt suchen.

Paid Herausgeber:

  • 010 Editor (Windows, MacOS, Linux) - Öffnet Riese (so viel wie 50 GB-Dateien).
  • SlickEdit (Windows, MacOS, Linux) -. Öffnet große Dateien
  • UltraEdit (Windows, MacOS, Linux) - Öffnet Dateien von mehr als 6 GB, aber die Konfiguration geändert werden muss für diese praktisch sein: »Temporäre Dateien» Datei öffnen, ohne temporäre Datei ...
  • Handling Menü »Erweitert» Konfiguration »Datei
  • EmEditor (Windows) - Griffe sehr große Textdateien schön (offiziell up bis 248 GB, aber so viel wie 900 GB nach einem Bericht).

Und schließlich haben Sie versucht, die große Datei mit Ihrem normalen Editor zu öffnen? Einige Editoren können tatsächlich ziemlich große Dateien verarbeiten. Insbesondere Notepad ++ (Windows) und Sublime Text (Windows, MacOS, Linux) Support-Dateien im 2 GB.

Andere Tipps

Tipps und Tricks

weniger

Warum sind Sie mit Editoren nur aussehen in eine (große) Datei?

Unter * nix oder Cygwin , benutzen Sie einfach eine weniger . (Es gibt einen berühmten Ausspruch - „weniger ist mehr, mehr oder weniger.“ - weil „weniger“ ersetzt der frühere Unix-Befehl „mehr“, mit dem Zusatz, dass Sie wieder nach oben bewegen können) Suche und unter weniger Navigation sehr ähnlich ist Vim, aber es gibt keine Auslagerungsdatei und wenig RAM verwendet wird.

Es ist ein Win32-Port von GNU weniger. Siehe „weniger“ -Abschnitt der Antwort oben.

Perl

Perl ist gut für schnelle Skripte und seine .. (Bereich Flip-Flop) Operator sorgt für eine schöne Auswahl Mechanismus, um die crud Sie waten durch haben zu begrenzen.

Zum Beispiel:

$ perl -n -e 'print if ( 1000000 .. 2000000)' humongo.txt | less

Das wird alles von der Linie 1 Million extrahieren Linie 2 Millionen, und lassen Sie die Ausgabe manuell in weniger sichten.

Ein weiteres Beispiel:

$ perl -n -e 'print if ( /regex one/ .. /regex two/)' humongo.txt | less

Das beginnt mit dem Druck, wenn der „reguläre Ausdruck einer“ etwas findet, und stoppt, wenn der „reguläre Ausdruck zwei“ das Ende eines interessanten Block finden. Es kann mehrere Blöcke finden. Sift den Ausgang ...

logparser

Dies ist ein weiteres nützliches Tool, das Sie verwenden können. Um Zitat der Wikipedia-Artikel :

  

logparser ist ein flexibles Befehlszeilenprogramm, das zunächst von Gabriele Giuseppini, einem Microsoft-Mitarbeiter geschrieben wurde, Tests für die IIS-Protokollierung zu automatisieren. Es wurde für die Verwendung mit dem Windows-Betriebssystem gedacht und wurde mit den IIS 6.0 Resource Kit Tools enthalten. Das Standardverhalten von logparser funktioniert wie eine „Datenverarbeitungspipeline“, durch einen SQL-Ausdruck auf der Kommandozeile unter, und zum Ausgeben der Linien Spiele für den SQL-Ausdruck enthalten.

     

Microsoft beschreibt Logparser als leistungsstarkes, vielseitiges Werkzeug, das den Zugriff auf textbasierte Daten wie Log-Dateien, XML-Dateien und CSV-Dateien, sowie die wichtigsten Datenquellen auf dem Windows-Betriebssystem wie das Ereignisprotokoll Universal-Abfrage liefert, die Registry, das Dateisystem und Active Directory. Die Ergebnisse der Eingabeabfrage individuell formatiert in textbasierte Ausgabe werden können, oder sie können wie SQL, SYSLOG oder ein Diagramm, um weitere Spezialität Ziele beibehalten werden.

Beispiel Nutzung:

C:\>logparser.exe -i:textline -o:tsv "select Index, Text from 'c:\path\to\file.log' where line > 1000 and line < 2000"
C:\>logparser.exe -i:textline -o:tsv "select Index, Text from 'c:\path\to\file.log' where line like '%pattern%'"

Die Relativität der Größen

100 MB ist nicht zu groß. 3 GB wird immer Art groß. Früher habe ich bei einer Print & Mail-Einrichtung arbeiten, die etwa 2% der US-Post der ersten Klasse erstellt. Eines der Systeme, für die ich die Tech-Führung war entfielen etwa 15 +% der Poststücke. Wir hatten einige große Dateien hier und dort zu debuggen.

Und mehr ...

Sie können ferner weitere Tools und Informationen hier hinzufügen. Diese Antwort ist Community Wiki für einen Grund! Wir alle brauchen mehr Beratung mit großen Datenmengen zu tun ...

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top