Frage

Ich versuche zu verstehen, wie alle "Big Data" -Komponenten in einem realen Anwendungsfall zusammenspielen, z. Verschiedene Typen, aber ich möchte mehr über ihre Interaktion in Anwendungen erfahren, z. B. maschinelles Lernen für eine App, WebApp, Online -Shop.

Ich habe Vistors/Sitzungen, Transaktionsdaten usw. und speichere das. Wenn ich jedoch im laufenden Fliegen Empfehlungen abgeben möchte, kann ich in einer großen Datenbank mit Protokollen, die ich habe, nicht langsame Karte/reduzieren. Wo kann ich mehr über die Infrastrukturaspekte erfahren? Ich denke, ich kann die meisten Tools selbst verwenden, aber es scheint eine eigene Kunst zu sein.

Gibt es öffentliche Beispiele/Anwendungsfälle usw.? Ich verstehe, dass die einzelnen Pipelines stark vom Anwendungsfall und dem Benutzer abhängen, aber nur Beispiele werden für mich wahrscheinlich sehr nützlich sein.

War es hilfreich?

Lösung

Um zu verstehen, wie viel wie maschinelles Lernen in Produktionsanwendungen integriert werden kann, ist es hilfreich, Open -Source -Projekte und -Papiere/Blog -Posts von Unternehmen zu betrachten, die ihre Infrastruktur beschreiben.

Das gemeinsame Thema, das diese Systeme haben, ist die Trennung des Modelltrainings von der Modellanwendung. In Produktionssystemen muss die Modellanwendung schnell in der Reihenfolge von Hunderts von MS sein, aber es gibt mehr Freiheit darin, wie häufig angepasste Modellparameter (oder gleichwertig) aktualisiert werden müssen.

Menschen verwenden eine breite Palette von Lösungen für Modelltraining und -bereitstellung:

Andere Tipps

Eine der detailliertesten und klarsten Erklärungen für die Einrichtung einer komplexen Analysepipeline ist von den Leuten bei AT bei Zucken.
Sie geben detaillierte Motivationen jeder Architekturauswahl für Sammeln, Transport, Koordination, Verarbeitung, Speicherung und Abfragen ihrer Daten.
Überzeugende Lektüre! Finde es hier und hier.

Airbnb und Etsy Beide haben kürzlich detaillierte Informationen zu ihren Workflows veröffentlicht.

Kapitel 1 der praktischen Datenwissenschaft mit R (http://www.manning.com/zumel/) hat eine große Aufschlüsselung des Datenwissenschaftsprozesses, einschließlich Teamrollen und der Art und Weise, wie sie sich auf bestimmte Aufgaben beziehen. Das Buch folgt den in dem Kapitel festgelegten Modellen, indem er bezieht, auf welche Phasen/Personal diese oder diese bestimmte Aufgabe ausgeführt werden.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit datascience.stackexchange
scroll top