Frage

Ich erstelle eine neue Website, die Web integriert Feeds aus dem Internet. Ich möchte ein Backend erstellen, die CPU intensive Analyse der Web-Daten in regelmäßigen Abständen der Fall ist, die schließlich die Ergebnisse kontinuierlich in eine Datenbank hinzugefügt werden.

Diese Datenbank wird von der Website durch einen normalen asp.net Backend-Server das wird die Seite bis zu den Kunden zugänglich sein.

Ist es ratsam, und bewährtes Verfahren, die komplexen CPU-Operationen in c # Binärdateien zu bauen, die kontinuierlich auf dem Server ausgeführt?

War es hilfreich?

Lösung

Klingt wie Sie eine .NET ausführbare möchten, die entweder läuft auf einem Zeitplan (cronjob-Stil) oder die Zeitpläne selbst. In jedem Fall ist es ratsam, auf Ihre Website zu verarbeiten völlig getrennt zu haben. Es klingt wie Daten-Generation und Daten-serving getrennten Bedenken sind, so sollten sie getrennt gehalten werden. Das bedeutet auch, dass Sie es von der Web-Serving-Maschine bewegen können, wenn Last ein Problem wird. Wenn Sie eine Live-Datenbank sind die Aktualisierung erinnern Transaktionen zu berücksichtigen.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top