Research & Trends

Der Two-Tower-Standard hat Meta und Shopee diese Woche verloren

Metas SilverTorch und Shopees UniRec, beide diese Woche überarbeitet, verabschieden die Two-Tower-Retrieval-Architektur als Standard im Apparel-E-Commerce. Die neue Schicht ist generativ, GPU-nativ und kommt mit Durchsatz-, Kosten- und GMV-Zahlen, die Beschaffungsentscheidungen besiegeln.

A nautilus scholar at a desk inspects two toppled towers labelled USER and ITEM while a glowing GPU rises between them.

Admiral Neritus Vale

Zwei Paper haben diese Woche die Standard-Recommender-Architektur im Apparel-E-Commerce abgelöst. Metas SilverTorch, am 30. April überarbeitet, und Shopees UniRec, am selben Tag aktualisiert, ersetzen die Two-Tower-Retrieval-Pipeline, die seit 2019 im großen Maßstab Standard ist, durch einen generativen, GPU-nativen Stack. Die Paper setzen drei Dinge gleichzeitig neu: Latenz, Infrastrukturkosten und was „Personalisierung” auf Katalogebene überhaupt bedeutet.

Two-Tower-Retrieval ist die Architektur, die nahezu jeder mittelgroße bis große Apparel-Anbieter unter der Oberfläche betreibt. Sie kodiert Nutzer und Artikel getrennt, berechnet Kosinusähnlichkeit und liefert Treffer über Approximate-Nearest-Neighbour-Lookups (ANN) auf CPU-Flotten aus. Allegro veröffentlichte im Juli eine zweijährige Fallstudie zu diesem Muster: dieselben Tower, drei Retrieval-Aufgaben, gewinnbasierte Verbesserungen auf Desktop und Mobil. Die Architektur ist kompetent und bei moderatem Maßstab günstig – weshalb sie seit einem halben Jahrzehnt unter eBay, Googles dokumentiertem Retrieval-Stack und den meisten Katalogen auf Shopify-Niveau liegt.

SilverTorch verzichtet vollständig auf die CPU-Infrastruktur des Stacks. Metas 31-köpfiges Autorenteam integriert ANN-Indexierung und Feature-Filterung direkt ins Modell, das auf GPUs als einheitliche Laufzeitumgebung betrieben wird: ein als GPU-Kernel implementierter Bloom-Index, ein fusionierter Int8-ANN-Kernel, eine OverArch-Scoring-Schicht und ein Value Model, das Multi-Task-Retrieval-Ziele aggregiert. Der Abstract berichtet von einem 23,7-fach höheren Durchsatz gegenüber der CPU-Baseline. Die Zahl, die Beschaffungsentscheidungen besiegelt, liegt dahinter: 13,35-fach höhere Kosteneffizienz bei gleichzeitig verbesserter Genauigkeit – die Kennzahl, an der Metas Empfehlungsflächen heute optimiert werden. Das System bedient bereits Hunderte von Modellen in unterschiedlichsten Anwendungskontexten.

UniRec ist die entsprechende Bewegung auf der Ranking-Seite. Shopees Paper verdichtet die klassische Pipeline aus Retrieval → Pre-Ranking → Ranking → Reranking zu einem einzigen autoregressiven Decoder über Semantic IDs, dem Kategorie-, Verkäufer- und Marken-Token vorangestellt sind – die Autoren nennen das „Chain-of-Attribute”. Online-A/B-Tests berichten von Verbesserungen über mehrere Kennzahlen hinweg: Orders plus 4,76 %, GMV plus 5,60 %. Der GMV-Wert ist die Art von Zahl, die Vendor-RFPs entscheidet – für ein Experiment auf Ranking-Ebene ungewöhnlich hoch.

Two-Tower-Stack vs. einheitlicher generativer Decoder

Zusammen verabschieden die Paper Two-Tower als Standard für jeden Katalog, der groß genug ist, dass Personalisierung die Marge bewegt.

Die Implikation für Apparel ist eine Beschaffungsentscheidung im Gewand eines Forschungspapiers. Ein einheitlicher generativer Decoder kann Outfits zur Anfragezeit zusammenstellen; der klassische mehrstufige Stack kann das nicht – weshalb Apparel-Sites heute vorberechnete Regale ausliefern und sie „personalisiert” nennen. SilverTorchs Kostenargument zählt nur, weil die Investitionskosten für GPU-Flotten weit genug gefallen sind, dass die Waage heute auf die GPU-Seite kippt. Diese Bedingung hat sich in den vergangenen achtzehn Monaten verschoben.

Das Argument für den Verbleib auf Two-Tower verdient seine stärkste Form. Das FIT-Paper vom September erweiterte Two-Tower für das Pre-Ranking um lernbare Feature-Interaktionen – eine Effizienzverbesserung, die die grundlegenden Schwächen der Architektur gegenüber generativen Modellen unangetastet lässt. Das Argument gilt bei moderatem Maßstab, wo GPU-Ökonomie noch in die falsche Richtung zeigt. Ein mittelständischer Apparel-Händler, der einen hausinternen Two-Tower-Stack auf einer Vektordatenbank betreibt, kann keine GPU-Recommender-Flotte unterhalten – und die Anbieter, die diesen Markt bedienen (Pinecone, Qdrant, Weaviate), wurden genau um jene ANN-Primitive herum gebaut, die SilverTorch ins Modell integriert. Liefern diese Anbieter nicht innerhalb von zwölf bis achtzehn Monaten generativ-fähige Substrate, hält der Standard unterhalb der Mittelmarktlinie. Metas frühere Infrastruktur-Paper haben die ANN-Ära eingeläutet – FAISS ist das kanonische Beispiel – und dasselbe Muster ist die plausibelste Wette für das, was folgt. Die einzig offene Frage für Käufer ist, wessen Aufkleber am Ende auf der Box klebt.

Drei Konsequenzen ergeben sich, wenn die Entwicklung anhält. Latenzbudgets schrumpfen so weit, dass Outfit-Komposition in Echtzeit zur Produktfrage wird, nicht zur Ingenieursfrage. Der Wechsel von günstigem Recall plus teurem Ranking zu einem einzigen Decoder, der beides erledigt, verändert auch die Katalogökonomik – die autoregressiven Abwägungen folgen: schwerer zu interpretieren, schwerer zu steuern und GPU-gebunden. Und „Personalisierung” hört auf, „die Artikel, die deinem Embedding am nächsten sind” zu bedeuten, und beginnt, „die Artikel, die ein generatives Modell als nächstes für dich schreibt” zu bedeuten – eine andere epistemische Aussage und eine andere Haftungsfläche für jeden Händler, der dieses Jahr einen Anbietervertrag unterzeichnet.

Der Two-Tower-Stack wird nicht verschwinden. Er wird auf die Kataloge zurückgedrängt, wo seine Betriebskosten die neue Alternative noch schlagen. Für alle oberhalb dieser Linie hat sich der Standard verschoben – und der Preis des Verweilens wird in Latenz, GMV und dem genauen Satz gezahlt, mit dem ein CTO seinen Stack einem Board erklärt.