Ich muss ein Gitter optimieren, indem ich die Anzahl der "Elemente" in ihm nehme und es so weit wie möglich minimiere. Wenn ich Element sage, beziehe ich mich auf einen Abschnitt innerhalb dieses Gitters. Hier ist im Wesentlichen, wie "Eingabe" in einem visuellen Sinn aussehen könnte:
Die erste Lösung, die mir in den Sinn kommt, wäre ein Flood-Fill-Algorithmus, allerdings habe ich eine Einschränkung: Alle Elemente müssen vier Seiten haben, daher müssen alle Elemente rechteckig sein.
Meine erste, begrenzte, einfache Methode bestand darin, Element für Element durch das Eingaberaster zu durchlaufen und zu prüfen, ob das zuletzt neu erstellte Element die gleiche Farbe hatte und das gleiche Alpha wie das Element hatte, das dann erstellt werden sollte - if Anstatt also das neue Element zu erstellen, wird nur die Größe des letzten Elements geändert, um den Block weiter zu verkleinern.
Hier ist ein Pseudo-Code-Beispiel für das, was ich mache:
%Vor%Als Ergebnis bekomme ich das (vorausgesetzt, ich gebe das vorherige Gitter ein):
In diesem Fall habe ich die Anzahl der Elemente von 64 auf 20 verringert.
Das ist gut, aber meine "Eingabegitter" sind normalerweise nicht 8x8 . Ein Beispiel für ein realistischeres Gitter als Eingabe ergibt 10201 Elemente vor der Optimierung (mit meiner aktuellen Methode) und 957 nach.
Da diese Methode offensichtlich stark von der Struktur des Gitters selbst abhängt, können diese Zahlen sehr unterschiedlich sein. Meine Hoffnung ist es, die Elemente so gut wie möglich für ein gegebenes Input-Grid zu minimieren.
Momentan nähere ich mich ihm aus einer Richtung (vertikal optimiert), aber ich möchte es auch horizontal optimieren. Ein Ergebnis einer solchen Operation muss nicht perfekt sein, aber hier stelle ich mir das optimale Endgitter für das erste Eingabegitter vor:
In diesem Fall reduziert sich die Anzahl der Elemente von 20 auf nur 14 - was auf meinen größeren Rastern sehr hilfreich sein könnte.
Ich kann einfach nicht an einen Weg denken, einen Flutalgorithmus so zu verwenden, dass ich jeden Elementraum im Eingangsgitter berücksichtigen und alle resultierenden Elemente rechteckig / vierseitig halten kann.
Ich dachte mir, ich könnte es wahrscheinlich brutal erzwingen, und während CPU-Auslastung / Geschwindigkeit nicht das größte Problem ist, muss ich dies auf sehr großen Gittern mit tausenden von Elementen ausführen, die so verschwendet werden Ressourcen, die versuchen, etwas in solch großem Stil zu erzwingen, sind nicht realistisch - ich denke nicht.
Gareth Rees hat eine sehr nette Antwort zu dieser Frage gepostet, die sich auf David Eppsteins Antwort bei Math Overflow unter Berufung auf mehrere Autoren. In einem Satz schneidet der Algorithmus, der zu optimalen Lösungen führt, zuerst eine maximale nichtkreuzende Menge von Linien zwischen konkaven Scheitelpunkten (gefunden in Polynomialzeit durch maximale unabhängige Menge in einem zweiteiligen Graphen) und verlängert dann diese Schnitte gierig, so dass die verbleibenden Gesichter sind Rechtecke.
Das Finden eines MIS in einem bipartiten Graphen erfordert einen maximalen Matching-Algorithmus. Wenn dies zu viel Arbeit ist, dann ist nur der gierige Schritt, wo ein vertikaler Schnitt von jedem konkaven Eckpunkt gemacht wird, eine 2-Annäherung.
Abhängig von der Anwendung können Sie dies möglicherweise mit Wavelets lösen. Stellen Sie sich Ihr 2D-Array als Graustufenbild vor, das Ziel besteht darin, es durch Zerlegen in rechteckige Funktionen (z. B. Haar-Wavelets) zu komprimieren und dann die Funktionen zu verwerfen, die zur Darstellung feiner Details verwendet wurden. Angesichts der Daten, die Sie uns bisher gezeigt haben (z. B. kein Rauschen oder Textur), müssen Sie nach der Wavelet-Transformation nicht wirklich etwas verwerfen.
In python können Sie Ссылка ,
verwenden %Vor%
Nehmen Sie eine diskrete Wavelet-Transformation auf einer Ebene:
%Vor% Die cA
enthalten die Haar-Wavelet-Koeffizienten, die für die Approximation verwendet werden. Die Näherung ist genau auf Ihre Daten, wir können durch inverse Transformation auf die ungefähren Koeffizienten überprüfen:
erzeugt 1.4210854715202004e-14
Um zu vergleichen, wenn wir versuchten, Gaußsches Rauschen mit Haar-Wavelets zu approximieren:
%Vor%ergibt: 213.31090340487393
Rechenweise sind Wavelet-Transformationen O (n).
Java-Code für Wavelet-Transformationen finden Sie hier: Ссылка
Weitere Informationen: Ссылка
Tags und Links algorithm optimization flood-fill