Ordne Smart-Search-Ergebnisse nach Datum oder Relevanz und justiere einen Ähnlichkeitsschwellenwert, damit gefilterte Suchen nur Fotos liefern, die wirklich passen.
CLIP-Smart-Search sortiert Treffer nach visueller Ähnlichkeit - praktisch, wenn du "den besten Treffer" suchst, aber weniger hilfreich, wenn du wissen willst, wann etwas passiert ist. Bei der Suche nach "Geburtstagstorte" sollte es genauso leicht sein, "die neuesten" wie "die ähnlichsten" Treffer anzuzeigen.
Ein neues Sortiermenü sitzt neben der Suchleiste und bietet drei Modi: Relevanz (Standard - höchste Ähnlichkeit zuerst), Neueste und Älteste. Beim Wechseln der Modi wird das Ergebnis direkt umsortiert, ohne die Anfrage neu zu starten.
Zuerst recallen, dann sortieren
Datums-sortierte Ergebnisse nutzen eine zweiphasige CTE: In der ersten Phase werden die Top 500 Treffer nach Vektor-Ähnlichkeit geholt, in der zweiten Phase wird diese Menge chronologisch neu sortiert. Du siehst weiter nur Fotos, die zur Anfrage passen - nur eben nach Datum statt nach CLIP-Sicherheit. Ein Roundtrip, und die Pagination bleibt beim Sortieren stabil.
Datumsgruppen und Infinite Scroll
Wenn du Neueste oder Älteste wählst, werden die Ergebnisse nach Monat gruppiert - Januar 2026, Mai 2020 und so weiter - damit die Timeline sofort lesbar ist. Infinite Scroll springt an, sobald du dem Ende der Liste nahe kommst, sodass größere Trefferlisten keine Pagination-Klicks erzwingen.
Das funktioniert auf der Haupt-Timeline (/photos) und in jedem Shared Space - dieselbe Sucherfahrung, dieselben Sortiersteuerungen, dieselbe Datumsgruppierung. Smart Search auf /photos kann sogar in Spaces greifen, die du an deine Timeline gepinnt hast, sodass eine Anfrage deine ganze Bibliothek abdeckt.
Ein Relevanzschwellenwert für gefilterte Suchen
Wenn du Textsuche mit Metadatenfiltern kombinierst - etwa "forest" zusammen mit einem bestimmten Land - kommen manchmal Fotos zurück, die zwar den Filter treffen, mit der Anfrage aber kaum etwas zu tun haben. Das passiert, weil CLIP alle Fotos im gefilterten Satz zurückgibt, sortiert nach Ähnlichkeit. Selbst die schwächsten Treffer erscheinen also noch.
Die neue Admin-Einstellung Max Search Distance fügt eine harte Obergrenze hinzu. Ergebnisse oberhalb der konfigurierten Cosine-Distanz werden vor der Pagination ausgeschlossen, sodass eine Suche entweder relevante Fotos liefert oder gar nichts - niemals irrelevante Füllergebnisse.
Den Schwellenwert abstimmen
Die Einstellung liegt unter Administration → Machine Learning → Smart Search. Werte sind Cosine-Distanzen zwischen 0 (identisch) und 2 (gegensätzlich). 0.75 ist ein guter Startwert - streng genug, um Rauschen zu filtern, aber offen genug für abstrakte Anfragen. Niedrigere Werte (0.5) behalten nur starke visuelle Treffer; höhere Werte (1.0) lassen breitere Treffer durch.
Wichtig ist noch: CLIP-Embeddings clustern oft eng, daher können kleine Schwellenwert-Änderungen größere Auswirkungen auf die Trefferanzahl haben - das ist normal. Unterschiedliche CLIP-Modelle erzeugen unterschiedliche Distanzverteilungen; wenn du das Modell wechselst, solltest du den Wert meist neu abstimmen. Text-zu-Bild-Suchen haben außerdem oft größere Distanzen als Bild-zu-Bild-Suchen; ein Wert, der für Text passt, ist meist auch für den Rest locker genug.
Der Standard ist 0 (deaktiviert), damit das bisherige Verhalten erhalten bleibt, bis du die Funktion aktiv einschaltest.