OCR für jedes JPM
Ziehen und ablegen oder klicken, um auszuwählen
Privat und sicher
Alles passiert in Ihrem Browser. Ihre Dateien berühren niemals unsere Server.
Blitzschnell
Kein Hochladen, kein Warten. Konvertieren Sie, sobald Sie eine Datei ablegen.
Wirklich kostenlos
Kein Konto erforderlich. Keine versteckten Kosten. Keine Tricks bei der Dateigröße.
Optische Zeichenerkennung (OCR) wandelt Bilder von Text – Scans, Smartphone-Fotos, PDFs – in maschinenlesbare Zeichenketten und zunehmend in strukturierte Daten um. Moderne OCR ist eine Pipeline, die ein Bild bereinigt, Text findet, ihn liest und umfassende Metadaten exportiert, damit nachgelagerte Systeme Felder suchen, indizieren oder extrahieren können. Zwei weit verbreitete Ausgabestandards sind hOCR, ein HTML-Mikroformat für Text und Layout, und ALTO XML, ein auf Bibliotheken/Archive ausgerichtetes Schema; beide erhalten Positionen, Lesereihenfolge und andere Layout-Hinweise und werden von populären Engines wie Tesseractunterstützt.
Eine kurze Tour durch die Pipeline
Vorverarbeitung. Die OCR-Qualität beginnt mit der Bildbereinigung: Graustufenumwandlung, Entrauschen, Schwellenwertbildung (Binarisierung) und Schräglagenkorrektur. Kanonische OpenCV-Tutorials behandeln globale, adaptive und Otsu Schwellenwertbildung – unerlässlich für Dokumente mit ungleichmäßiger Beleuchtung oder bimodalen Histogrammen. Wenn die Beleuchtung innerhalb einer Seite variiert (denken Sie an Handy-Schnappschüsse), übertreffen adaptive Methoden oft einen einzigen globalen Schwellenwert; Otsu wählt automatisch einen Schwellenwert durch Analyse des Histogramms. Die Neigungskorrektur ist ebenso wichtig: Hough-basierte Schräglagenkorrektur (Hough-Linientransformation) in Verbindung mit Otsu-Binarisierung ist ein gängiges und effektives Rezept in Produktions-Vorverarbeitungspipelines.
Erkennung vs. Erkennung. OCR wird typischerweise in Texterkennung (wo ist der Text?) und Texterkennung (was steht da?) unterteilt. In natürlichen Szenen und vielen Scans sind vollständig konvolutionale Detektoren wie EAST effizient bei der Vorhersage von Vierecken auf Wort- oder Zeilenebene ohne aufwändige Vorschlagsphasen und sind in gängigen Toolkits implementiert (z. B. OpenCVs Tutorial zur Texterkennung). Bei komplexen Seiten (Zeitungen, Formulare, Bücher) sind die Segmentierung von Zeilen/Regionen und die Inferenz der Lesereihenfolge von Bedeutung:Kraken implementiert traditionelle Zonen-/Zeilensegmentierung und neuronale Grundlinien-Segmentierung, mit expliziter Unterstützung für verschiedene Schriften und Richtungen (LTR/RTL/vertikal).
Erkennungsmodelle. Das klassische Open-Source-Arbeitspferd Tesseract (von Google als Open Source veröffentlicht, mit Wurzeln bei HP) entwickelte sich von einem Zeichenklassifikator zu einem LSTM-basierten Sequenz- Erkenner und kann durchsuchbare PDFs, hOCR/ALTO-freundliche Ausgabenund mehr über die CLI ausgeben. Moderne Erkenner setzen auf Sequenzmodellierung ohne vorsegmentierte Zeichen. Connectionist Temporal Classification (CTC) bleibt grundlegend und lernt die Ausrichtungen zwischen Eingabemerkmalfolgen und Ausgabezeichenfolgen; es wird häufig in Handschrift- und Szenentext-Pipelines verwendet.
In den letzten Jahren haben Transformer die OCR neu gestaltet. TrOCR verwendet einen Vision-Transformer-Encoder plus einen Text-Transformer-Decoder, trainiert auf großen synthetischen Korpora und dann feinabgestimmt auf realen Daten, mit starker Leistung bei gedruckten, handschriftlichen und Szenentext-Benchmarks (siehe auch Hugging Face-Dokumentation). Parallel dazu umgehen einige Systeme OCR für das nachgelagerte Verständnis: Donut (Document Understanding Transformer) ist ein OCR-freier Encoder-Decoder, der direkt strukturierte Antworten (wie Schlüssel-Wert-JSON) aus Dokumenten- bildern ausgibt (Repo, Modellkarte), um Fehlerakkumulation zu vermeiden, wenn ein separater OCR-Schritt ein IE-System speist.
Engines und Bibliotheken
Wenn Sie eine umfassende Texterkennung für viele Schriften wünschen, bietet EasyOCR eine einfache API mit über 80 Sprachmodellen, die Boxen, Text und Konfidenzen zurückgibt – praktisch für Prototypen und nicht-lateinische Schriften. Für historische Dokumente glänzt Kraken mit Grundliniensegmentierung und schriftbewusster Lesereihenfolge; für flexibles Training auf Zeilenebene, Calamari baut auf der Ocropy-Linie auf (Ocropy) mit (Multi-)LSTM+CTC-Erkennern und einer CLI zur Feinabstimmung benutzerdefinierter Modelle.
Datensätze und Benchmarks
Generalisierung hängt von Daten ab. Für Handschrift bietet die IAM Handwriting Database schreiberdiverse englische Sätze für Training und Evaluierung; sie ist ein langjähriger Referenzdatensatz für Zeilen- und Worterkennung. Für Szenentext hat COCO-Text umfangreiche Annotationen über MS-COCO gelegt, mit Labels für gedruckt/handschriftlich, lesbar/unlesbar, Schrift und vollständigen Transkriptionen (siehe auch die ursprüngliche Projektseite). Das Feld stützt sich auch stark auf synthetisches Vortraining: SynthText in the Wild rendert Text in Fotografien mit realistischer Geometrie und Beleuchtung und liefert riesige Datenmengen zum Vortrainieren von Detektoren und Erkennern (Referenz Code & Daten).
Wettbewerbe unter dem Dach von ICDARs Robust Reading halten die Evaluierung auf dem Boden. Jüngste Aufgaben betonen die End-to-End-Erkennung/Lesung und umfassen das Verknüpfen von Wörtern zu Phrasen, wobei der offizielle Code Präzision/Recall/F-Score, Intersection-over-Union (IoU) und zeichenbasierte Edit-Distanz-Metriken meldet – was widerspiegelt, was Praktiker verfolgen sollten.
Ausgabeformate und nachgelagerte Nutzung
OCR endet selten bei reinem Text. Archive und digitale Bibliotheken bevorzugen ALTO XML , da es das physische Layout (Blöcke/Zeilen/Wörter mit Koordinaten) neben dem Inhalt kodiert und gut mit METS-Verpackungen harmoniert. Das hOCR Mikroformat hingegen bettet dieselbe Idee in HTML/CSS ein, indem es Klassen wie ocr_line und ocrx_word verwendet, was die Anzeige, Bearbeitung und Transformation mit Web-Werkzeugen erleichtert. Tesseract bietet beides – z. B. die Erzeugung von hOCR oder durchsuchbaren PDFs direkt über die CLI (PDF-Ausgabe-Anleitung); Python-Wrapper wie pytesseract bieten zusätzlichen Komfort. Es gibt Konverter, um zwischen hOCR und ALTO zu übersetzen, wenn Repositories feste Aufnahme- standards haben – siehe diese kuratierte Liste von OCR-Dateiformat-Tools.
Praktische Anleitung
- Beginnen Sie mit Daten & Sauberkeit. Wenn Ihre Bilder Handyfotos oder Scans gemischter Qualität sind, investieren Sie in Schwellenwertbildung (adaptiv & Otsu) und Schräglagenkorrektur (Hough) vor jeder Modellabstimmung. Sie werden oft mehr von einem robusten Vorverarbeitungsrezept profitieren als vom Austausch von Erkennern.
- Wählen Sie den richtigen Detektor. Für gescannte Seiten mit regelmäßigen Spalten kann ein Seitensegmentierer (Zonen → Zeilen) ausreichen; für natürliche Bilder sind Single-Shot-Detektoren wie EAST starke Baselines und lassen sich in viele Toolkits integrieren (OpenCV-Beispiel).
- Wählen Sie einen Erkenner, der zu Ihrem Text passt. Für gedrucktes Latein ist Tesseract (LSTM/OEM) robust und schnell; für Multi-Skript oder schnelle Prototypen ist EasyOCR produktiv; für Handschrift oder historische Schriftarten sollten Sie Kraken oder Calamari in Betracht ziehen und eine Feinabstimmung planen. Wenn Sie eine enge Kopplung an das Dokumentenverständnis benötigen (Schlüssel-Wert-Extraktion, VQA), evaluieren Sie TrOCR (OCR) versus Donut (OCR-frei) auf Ihrem Schema – Donut kann einen ganzen Integrationsschritt entfernen.
- Messen Sie, was zählt. Für End-to-End-Systeme melden Sie Erkennungs- F-Score und Erkennungs-CER/WER (beide basierend auf Levenshtein- Edit-Distanz; siehe CTC); für layoutlastige Aufgaben verfolgen Sie IoU/Dichtheit und zeichenbasierte normalisierte Edit-Distanz wie in ICDAR RRC Evaluierungskits.
- Exportieren Sie reichhaltige Ausgaben. Bevorzugen Sie hOCR /ALTO (oder beides), damit Sie Koordinaten und Lesereihenfolge beibehalten – entscheidend für die Hervorhebung von Suchtreffern, Tabellen-/Feld- extraktion und Provenienz. Tesseracts CLI und pytesseract machen dies zu einem Einzeiler.
Blick nach vorn
Der stärkste Trend ist die Konvergenz: Erkennung, Erkennung, Sprachmodellierung und sogar aufgabenspezifische Dekodierung verschmelzen zu einheitlichen Transformer-Stacks. Vortraining auf großen synthetischen Korpora bleibt ein Kraftmultiplikator. OCR-freie Modelle werden aggressiv konkurrieren, wo immer das Ziel strukturierte Ausgaben anstelle von wörtlichen Transkripten sind. Erwarten Sie auch hybride Bereitstellungen: einen leichtgewichtigen Detektor plus einen TrOCR-Stil- Erkenner für Langformtext und ein Donut-Stil-Modell für Formulare und Belege.
Weiterführende Literatur & Tools
Tesseract (GitHub) · Tesseract-Dokumentation · hOCR-Spezifikation · ALTO-Hintergrund · EAST-Detektor · OpenCV-Texterkennung · TrOCR · Donut · COCO-Text · SynthText · Kraken · Calamari OCR · ICDAR RRC · pytesseract · IAM Handschrift · OCR-Dateiformat-Tools · EasyOCR
Häufig gestellte Fragen
Was ist OCR?
Die Optical Character Recognition (OCR) ist eine Technologie, die verwendet wird, um verschiedene Arten von Dokumenten, wie gescannte Papiere, PDF-Dateien oder Bilder, die mit einer Digitalkamera aufgenommen wurden, in bearbeitbare und durchsuchbare Daten umzuwandeln.
Wie funktioniert OCR?
OCR funktioniert, indem es ein Eingabebild oder Dokument scannt, das Bild in einzelne Zeichen segmentiert und jedes Zeichen mit einer Datenbank von Zeichenformen mit Hilfe von Mustererkennung oder Feature-Erkennung vergleicht.
Welches sind einige praktische Anwendungen von OCR?
OCR wird in einer Vielzahl von Bereichen und Anwendungen genutzt, einschließlich der Digitalisierung von gedruckten Dokumenten, der Aktivierung von Text-zu-Sprachdiensten, der Automatisierung von Dateneingabeprozessen und der Unterstützung von sehbehinderten Benutzern bei der Interaktion mit Texten.
Ist OCR immer 100% genau?
Obwohl große Fortschritte in der OCR-Technologie gemacht wurden, ist sie nicht unfehlbar. Die Genauigkeit kann abhängig von der Qualität des Originaldokuments und den Spezifika der verwendeten OCR-Software variieren.
Kann OCR Handschrift erkennen?
Obwohl OCR hauptsächlich für gedruckten Text konzipiert wurde, können einige fortschrittliche OCR-Systeme auch klare und konsistente Handschriften erkennen. Allerdings ist die Handschriftenerkennung in der Regel weniger genau aufgrund der großen Variation in individuellen Schreibstilen.
Kann OCR mehrere Sprachen verarbeiten?
Ja, viele OCR-Software-Systeme können mehrere Sprachen erkennen. Es ist jedoch wichtig zu gewährleisten, dass die spezifische Sprache von der von Ihnen verwendeten Software unterstützt wird.
Was ist der Unterschied zwischen OCR und ICR?
OCR steht für Optical Character Recognition und wird verwendet, um gedruckten Text zu erkennen, während ICR für Intelligent Character Recognition steht und wird zur Fortschrittlicheren Erkennung von handschriftlichen Text verwendet.
Funktioniert OCR mit jeder Schrift- und Textgröße?
OCR funktioniert am besten mit klaren, leicht lesbaren Schriftarten und Standard-Textgrößen. Obwohl es mit verschiedenen Schriftarten und Größen arbeiten kann, neigt die Genauigkeit dazu, zu sinken, wenn man mit ungewöhnlichen Schriftarten oder sehr kleinen Textgrößen umgeht.
Was sind die Grenzen der OCR-Technologie?
OCR kann Probleme haben mit niedrigauflösenden Dokumenten, komplexen Schriftarten, schlecht gedruckten Texten, Handschriften und Dokumenten mit Hintergründen, die den Text stören. Außerdem kann es, obwohl es mit vielen Sprachen arbeiten kann, nicht jede Sprache perfekt abdecken.
Kann OCR farbigen Text oder farbige Hintergründe scannen?
Ja, OCR kann farbigen Text und Hintergründe scannen, obwohl es in der Regel effektiver mit Hochkontrast-Farbkombinationen ist, wie schwarzem Text auf weißem Hintergrund. Die Genauigkeit kann abnehmen, wenn Text und Hintergrundfarben nicht genug Kontrast aufweisen.
Was ist das JPM Format?
JPEG-2000 Dateiformat Syntax
Das JPEG-Bildformat (Joint Photographic Experts Group), allgemein bekannt als JPG, ist eine weit verbreitete Methode zur verlustbehafteten Komprimierung digitaler Bilder, insbesondere für Bilder, die durch digitale Fotografie erzeugt werden. Der Komprimierungsgrad kann angepasst werden, wodurch ein wählbarer Kompromiss zwischen Speichergröße und Bildqualität ermöglicht wird. JPEG erreicht typischerweise eine 10:1-Komprimierung mit kaum wahrnehmbarem Qualitätsverlust.
JPEG-Komprimierung wird in einer Reihe von Bilddateiformaten verwendet. JPEG/Exif ist das gängigste Bildformat, das von Digitalkameras und anderen Geräten zur Erfassung fotografischer Bilder verwendet wird; zusammen mit JPEG/JFIF ist es das gängigste Format zum Speichern und Übertragen von fotografischen Bildern im World Wide Web. Diese Formatvarianten werden oft nicht unterschieden und einfach als JPEG bezeichnet.
Das JPEG-Format umfasst eine Vielzahl von Standards, darunter JPEG/Exif, JPEG/JFIF und JPEG 2000, einen neueren Standard, der eine bessere Komprimierungseffizienz bei höherer Rechenkomplexität bietet. Der JPEG-Standard ist komplex, mit verschiedenen Teilen und Profilen, aber der am häufigsten verwendete JPEG-Standard ist das Baseline-JPEG, auf das sich die meisten Menschen beziehen, wenn sie von „JPEG“-Bildern sprechen.
Der JPEG-Komprimierungsalgorithmus ist im Kern eine auf der diskreten Kosinustransformation (DCT) basierende Komprimierungstechnik. Die DCT ist eine Fourier-bezogene Transformation, die der diskreten Fourier-Transformation (DFT) ähnelt, jedoch nur Kosinusfunktionen verwendet. Die DCT wird verwendet, weil sie die Eigenschaft hat, den größten Teil des Signals im niederfrequenten Bereich des Spektrums zu konzentrieren, was gut mit den Eigenschaften natürlicher Bilder korreliert.
Der JPEG-Komprimierungsprozess umfasst mehrere Schritte. Zunächst wird das Bild von seinem ursprünglichen Farbraum (normalerweise RGB) in einen anderen Farbraum namens YCbCr konvertiert. Der YCbCr-Farbraum trennt das Bild in eine Luminanzkomponente (Y), die die Helligkeitsstufen darstellt, und zwei Chrominanzkomponenten (Cb und Cr), die die Farbinformationen darstellen. Diese Trennung ist vorteilhaft, da das menschliche Auge empfindlicher auf Helligkeitsunterschiede als auf Farben reagiert, was eine aggressivere Komprimierung der Chrominanzkomponenten ermöglicht, ohne die wahrgenommene Bildqualität wesentlich zu beeinträchtigen.
Nach der Farbraumkonvertierung wird das Bild in Blöcke aufgeteilt, typischerweise mit einer Größe von 8x8 Pixeln. Jeder Block wird dann separat verarbeitet. Für jeden Block wird die DCT angewendet, die die Daten aus dem räumlichen Bereich in Daten aus dem Frequenzbereich transformiert. Dieser Schritt ist entscheidend, da er die Bilddaten für die Komprimierung besser geeignet macht, da natürliche Bilder dazu neigen, niederfrequente Komponenten zu haben, die signifikanter sind als hochfrequente Komponenten.
Sobald die DCT angewendet wurde, werden die resultierenden Koeffizienten quantisiert. Quantisierung ist der Prozess der Zuordnung eines großen Satzes von Eingabewerten zu einem kleineren Satz, wodurch die Anzahl der Bits, die zu ihrer Speicherung benötigt werden, effektiv reduziert wird. Dies ist die Hauptquelle für Verluste bei der JPEG-Komprimierung. Der Quantisierungsschritt wird durch eine Quantisierungstabelle gesteuert, die bestimmt, wie viel Komprimierung auf jeden DCT-Koeffizienten angewendet wird. Durch Anpassen der Quantisierungstabelle können Benutzer einen Kompromiss zwischen Bildqualität und Dateigröße eingehen.
Nach der Quantisierung werden die Koeffizienten durch Zickzack-Scannen linearisiert, wodurch sie nach steigender Frequenz geordnet werden. Dieser Schritt ist wichtig, da er niederfrequente Koeffizienten, die eher signifikant sind, und hochfrequente Koeffizienten, die nach der Quantisierung eher Null oder nahe Null sind, zusammenfasst. Diese Anordnung erleichtert den nächsten Schritt, die Entropiekodierung.
Die Entropiekodierung ist eine Methode der verlustfreien Komprimierung, die auf die quantisierten DCT-Koeffizienten angewendet wird. Die in JPEG am häufigsten verwendete Form der Entropiekodierung ist die Huffman-Kodierung, obwohl auch die arithmetische Kodierung vom Standard unterstützt wird. Die Huffman-Kodierung funktioniert, indem häufigeren Elementen kürzere Codes und weniger häufigen Elementen längere Codes zugewiesen werden. Da natürliche Bilder nach der Quantisierung dazu neigen, viele Null- oder Nahe-Null-Koeffizienten zu haben, insbesondere im Hochfrequenzbereich, kann die Huffman-Kodierung die Größe der komprimierten Daten erheblich reduzieren.
Der letzte Schritt im JPEG-Komprimierungsprozess besteht darin, die komprimierten Daten in einem Dateiformat zu speichern. Das gängigste Format ist das JPEG File Interchange Format (JFIF), das definiert, wie die komprimierten Daten und zugehörigen Metadaten, wie z. B. die Quantisierungstabellen und Huffman-Codetabellen, in einer Datei dargestellt werden, die von einer Vielzahl von Software decodiert werden kann. Ein weiteres gängiges Format ist das Exchangeable Image File Format (Exif), das von Digitalkameras verwendet wird und Metadaten wie Kameraeinstellungen und Szeneninformationen enthält.
JPEG-Dateien enthalten auch Marker, die Codesequenzen sind, die bestimmte Parameter oder Aktionen in der Datei definieren. Diese Marker können den Anfang eines Bildes, das Ende eines Bildes, Quantisierungstabellen definieren, Huffman-Codetabellen angeben und vieles mehr. Marker sind für die korrekte Dekodierung des JPEG-Bildes unerlässlich, da sie die notwendigen Informationen liefern, um das Bild aus den komprimierten Daten zu rekonstruieren.
Eine der Hauptfunktionen von JPEG ist die Unterstützung der progressiven Kodierung. Bei progressivem JPEG wird das Bild in mehreren Durchläufen kodiert, wobei jeder Durchlauf die Bildqualität verbessert. Dies ermöglicht die Anzeige einer Version des Bildes mit niedriger Qualität, während die Datei noch heruntergeladen wird, was besonders für Webbilder nützlich sein kann. Progressive JPEG-Dateien sind im Allgemeinen größer als Baseline-JPEG-Dateien, aber der Qualitätsunterschied während des Ladens kann die Benutzererfahrung verbessern.
Trotz seiner weit verbreiteten Verwendung hat JPEG einige Einschränkungen. Die verlustbehaftete Natur der Komprimierung kann zu Artefakten wie Blockierung führen, bei der das Bild sichtbare Quadrate aufweisen kann, und „Ringing“, bei dem Kanten von störenden Schwingungen begleitet werden können. Diese Artefakte sind bei höheren Komprimierungsstufen stärker ausgeprägt. Darüber hinaus ist JPEG nicht gut für Bilder mit scharfen Kanten oder kontrastreichem Text geeignet, da der Komprimierungsalgorithmus Kanten verwischen und die Lesbarkeit verringern kann.
Um einige der Einschränkungen des ursprünglichen JPEG-Standards zu beheben, wurde JPEG 2000 entwickelt. JPEG 2000 bietet mehrere Verbesserungen gegenüber Baseline-JPEG, darunter eine bessere Komprimierungseffizienz, Unterstützung für verlustfreie Komprimierung und die Möglichkeit, eine breitere Palette von Bildtypen effektiv zu verarbeiten. JPEG 2000 hat jedoch im Vergleich zum ursprünglichen JPEG-Standard keine weit verbreitete Akzeptanz gefunden, was hauptsächlich auf die erhöhte Rechenkomplexität und die mangelnde Unterstützung in einigen Softwareprogrammen und Webbrowsern zurückzuführen ist.
Zusammenfassend lässt sich sagen, dass das JPEG-Bildformat eine komplexe, aber effiziente Methode zur Komprimierung fotografischer Bilder ist. Seine weit verbreitete Akzeptanz ist auf seine Flexibilität zurückzuführen, Bildqualität und Dateigröße in Einklang zu bringen, wodurch es für eine Vielzahl von Anwendungen geeignet ist, von Webgrafiken bis hin zur professionellen Fotografie. Obwohl es Nachteile wie die Anfälligkeit für Komprimierungsartefakte hat, machen seine Benutzerfreundlichkeit und Unterstützung auf einer Vielzahl von Geräten und Software es zu einem der beliebtesten Bildformate, die heute verwendet werden.
Unterstützte Formate
AAI.aai
AAI Dune Bild
AI.ai
Adobe Illustrator CS2
AVIF.avif
AV1 Bildformat
BAYER.bayer
Rohes Bayer-Bild
BMP.bmp
Microsoft Windows Bitmap-Bild
CIN.cin
Cineon-Bilddatei
CLIP.clip
Bild-Clip-Maske
CMYK.cmyk
Rohcyan-, Magenta-, Gelb- und Schwarzproben
CUR.cur
Microsoft-Symbol
DCX.dcx
ZSoft IBM PC mehrseitige Paintbrush
DDS.dds
Microsoft DirectDraw-Oberfläche
DPX.dpx
SMTPE 268M-2003 (DPX 2.0) Bild
DXT1.dxt1
Microsoft DirectDraw-Oberfläche
EPDF.epdf
Eingekapseltes tragbares Dokumentenformat
EPI.epi
Adobe Encapsulated PostScript Interchange-Format
EPS.eps
Adobe Encapsulated PostScript
EPSF.epsf
Adobe Encapsulated PostScript
EPSI.epsi
Adobe Encapsulated PostScript Interchange-Format
EPT.ept
Eingekapseltes PostScript mit TIFF-Vorschau
EPT2.ept2
Eingekapseltes PostScript Level II mit TIFF-Vorschau
EXR.exr
Bild mit hohem Dynamikbereich (HDR)
FF.ff
Farbfeld
FITS.fits
Flexibles Bildtransport-System
GIF.gif
CompuServe-Grafikaustauschformat
HDR.hdr
Bild mit hohem Dynamikbereich (HDR)
HEIC.heic
Hocheffizienter Bildcontainer
HRZ.hrz
Slow Scan TeleVision
ICO.ico
Microsoft-Symbol
ICON.icon
Microsoft-Symbol
J2C.j2c
JPEG-2000 Codestream
J2K.j2k
JPEG-2000 Codestream
JNG.jng
JPEG Network Graphics
JP2.jp2
JPEG-2000 Dateiformat Syntax
JPE.jpe
Joint Photographic Experts Group JFIF-Format
JPEG.jpeg
Joint Photographic Experts Group JFIF-Format
JPG.jpg
Joint Photographic Experts Group JFIF-Format
JPM.jpm
JPEG-2000 Dateiformat Syntax
JPS.jps
Joint Photographic Experts Group JPS-Format
JPT.jpt
JPEG-2000 Dateiformat Syntax
JXL.jxl
JPEG XL-Bild
MAP.map
Multi-Resolution Seamless Image Database (MrSID)
MAT.mat
MATLAB-Level-5-Bildformat
PAL.pal
Palm-Pixmap
PALM.palm
Palm-Pixmap
PAM.pam
Allgemeines zweidimensionales Bitmap-Format
PBM.pbm
Portable Bitmap-Format (schwarz-weiß)
PCD.pcd
Photo-CD
PCT.pct
Apple Macintosh QuickDraw/PICT
PCX.pcx
ZSoft IBM PC Paintbrush
PDB.pdb
Palm Database ImageViewer-Format
PDF.pdf
Portable Document Format
PDFA.pdfa
Portable Document Archive-Format
PFM.pfm
Portable Float-Format
PGM.pgm
Portable Graymap-Format (Graustufen)
PGX.pgx
JPEG-2000 unkomprimiertes Format
PICT.pict
Apple Macintosh QuickDraw/PICT
PJPEG.pjpeg
Joint Photographic Experts Group JFIF-Format
PNG.png
Portable Network Graphics
PNG00.png00
PNG mit Bit-Tiefe und Farbtyp vom Originalbild erben
PNG24.png24
Opakes oder binäres transparentes 24-Bit-RGB (zlib 1.2.11)
PNG32.png32
Opakes oder binäres transparentes 32-Bit-RGBA
PNG48.png48
Opakes oder binäres transparentes 48-Bit-RGB
PNG64.png64
Opakes oder binäres transparentes 64-Bit-RGBA
PNG8.png8
Opakes oder binäres transparentes 8-Bit-Indexed
PNM.pnm
Portable Anymap
PPM.ppm
Portable Pixmap-Format (Farbe)
PS.ps
Adobe PostScript-Datei
PSB.psb
Adobe Large Document-Format
PSD.psd
Adobe Photoshop-Bitmap
RGB.rgb
Rohdaten für rote, grüne und blaue Proben
RGBA.rgba
Rohdaten für rote, grüne, blaue und Alpha-Proben
RGBO.rgbo
Rohdaten für rote, grüne, blaue und Opazität-Proben
SIX.six
DEC SIXEL-Grafikformat
SUN.sun
Sun Rasterfile
SVG.svg
Skalierbare Vektorgrafiken
TIFF.tiff
Tagged Image File Format
VDA.vda
Truevision-Targa-Bild
VIPS.vips
VIPS-Bild
WBMP.wbmp
Wireless Bitmap (Level 0) Bild
WEBP.webp
WebP-Bildformat
YUV.yuv
CCIR 601 4:1:1 oder 4:2:2
Häufig gestellte Fragen
Wie funktioniert das?
Dieser Konverter läuft vollständig in Ihrem Browser. Wenn Sie eine Datei auswählen, wird sie in den Speicher gelesen und in das ausgewählte Format konvertiert. Sie können die konvertierte Datei dann herunterladen.
Wie lange dauert die Konvertierung einer Datei?
Die Konvertierung beginnt sofort, und die meisten Dateien werden in weniger als einer Sekunde konvertiert. Größere Dateien können länger dauern.
Was passiert mit meinen Dateien?
Ihre Dateien werden niemals auf unsere Server hochgeladen. Sie werden in Ihrem Browser konvertiert, und die konvertierte Datei wird dann heruntergeladen. Wir sehen Ihre Dateien niemals.
Welche Dateitypen kann ich konvertieren?
Wir unterstützen die Konvertierung zwischen allen Bildformaten, einschließlich JPEG, PNG, GIF, WebP, SVG, BMP, TIFF und mehr.
Wie viel kostet das?
Dieser Konverter ist völlig kostenlos und wird immer kostenlos sein. Da er in Ihrem Browser läuft, müssen wir nicht für Server bezahlen, also müssen wir Ihnen auch nichts berechnen.
Kann ich mehrere Dateien auf einmal konvertieren?
Ja! Sie können so viele Dateien auf einmal konvertieren, wie Sie möchten. Wählen Sie einfach mehrere Dateien aus, wenn Sie sie hinzufügen.