XF2.x FcgidMaxRequestsPerProcess ?

Dieses Thema im Forum "Informationen, Tipps und Tricks" wurde erstellt von shining, 10. Sep. 2018.

  1. shining

    shining Mitglied Lizenzinhaber

    Gut, DAS lasse ich dann doch besser meinen Bekannten erledigen ... von sowas lasse ich dann mangels Erfahrung doch die Finger. Wobei ich auch schon ca 6 Montate darauf warte, das der die MariaDB aktualisiert :(

    Wobei mich das echt wundert alles.. wir sind mit der Domain vor ca 2-3 Monaten auf den neuen Server gezogen. Bis vor 2-3 Wochen lief wie gesagt alles perfekt.
    Auch davor, auf dem "uralt" Server lief soweit alles rund... der Umzug kam eigentlich nur zustande, weil ich das ganze lieber getrennt von allen anderen Domains haben wollte.

    Ich warte jetzt erst mal die nächsten 24 Stunden ab. Vielleicht hat dein Tipp mit dem FPM ja schon geholfen. Bis jetzt habe ich jedenfalls ein gutes Gefühl.
     
  2. shining

    shining Mitglied Lizenzinhaber

    Das Problem, dass sich die Seite aufhängt, ist nun scheinbar wirklich weg :dance2:
    Vielen Dank!!!
     
  3. Masetrix

    Masetrix Neues Mitglied Lizenzverwender

    Falls das Problem erneut auftritt, öffne nochmal deine Phpeinstellungen ,scrolle ganz runter und trage unter Zusätzliche Konfigurationseinstellungen Folgendes ein: FcgidBusyTimeout 1800
    Das erhöht die Wartezeit bevor ein Request abgebrochen wird. In Plesk ist das auf einem Default von 600 eingestellt was bei stark frequentierten Seiten zu kurz sein kann.
     
    shining und McAtze gefällt das.
  4. shining

    shining Mitglied Lizenzinhaber

    Hm.. mal schauen.

    Bislang tauchen seit der Umstellung auf FPM nun "nur" die zuletzt genannten Error/Apache Fehler in unregelmäßigen Abständen (stündlich oder alle paar Stunden) auf:

    (22)Invalid argument: AH01075: Error dispatching request to: Example Domain
    AH01068: Got bogus version 199, referer: Example Domain
    AH01068: Got bogus version 190, referer: Example Domain
    AH01068: Got bogus version 243, referer: Example Domain
    AH01068: Got bogus version 82, referer: Example Domain
    AH01068: Got bogus version 112, referer: Example Domain
    AH01068: Got bogus version 150, referer: Example Domain
    AH01068: Got bogus version 180, referer: Example Domain
    AH01068: Got bogus version 47

    Blöderweise liefern all diese Fehler keine konkrete Datei aus wie bei anderen Error Meldungen, sondern immer nur die Haupt-URL. So das man leider nicht eingrenzen kann, welche Funktion/Aktion die Fehler auslöst.
    Da diese aber scheinbar keine Auswirkungen auf die Performance haben (zumindest merkt man es nicht) lasse ich von weiteren Konfigurationen mangels Ahnung erst mal die Finger.
     
  5. otto

    otto Bekanntes Mitglied Lizenzinhaber

    Nö - generell schon mal gar nicht. :D ;)
     
  6. shining

    shining Mitglied Lizenzinhaber

    Menno!!! :cry:

    :D
     
    otto gefällt das.
  7. Masetrix

    Masetrix Neues Mitglied Lizenzverwender

    Diese Fehler treten auf wenn Scripte keine Daten ausgeben und/oder einfach (mangels Daten) abbrechen.
    Kannst du also Ignorieren.

    Übrigens ist ein Proxy in Sachen Performance nicht unbedingt besser, bei mehrheitlich dynamisch erzeugten Daten kann der sogar das Gegenteil bewirken.
    In Sachen statische Inhalte ist NGinx dann wieder Vorteilhaft
     
    shining gefällt das.
  8. otto

    otto Bekanntes Mitglied Lizenzinhaber

    Drum kann mans ja auch so schön kombinieren und dazu dann ggf. verschiedene Caches benutzen.

    Im Xenforo wird fast alles dynamisch erzeugt - aber bei vielen Seiten macht es schon sehr Sinn, auch dynamische Inhalte zu cachen. Wichtig ist hier dann aber die optimale Cache Haltezeit zu finden.

    Beispiel: eine Seite des Forums mit den Beiträgen eines Themas.
    Ist ja erstmal eine klassische dynamisch erzeugte Seite.
    Nun kommen in den seltensten Fällen tatsächlich jede Sekunde Änderungen an dieser Seite.
    Hier macht es mMn. nun schon sehr wohl Sinn, diese Seiten auch zu cachen, aber eben mit relativ kurzen Cache Haltezeiten.
    Warum? Greift nur ein Nutzer jede Minuten darauf zu - ok, macht das cachen weniger Sinn oder man könnte die Haltezeit hoch setzen. Was aber wenn man ein gut besuchtes Forum hat? Wenn z.B. jede Sekunde mehr als ein Nutzer auf den dynamisch erzeugten Inhalt zugreift? Genau da macht das cachen von dynamischen Seiten sehr wohl richtig Sinn.

    Von daher gibt es aus Forum-Sicht nur wenige dynamische Seiten, die nicht von einem Cache/gecachten Proxy profitieren würden. Siehe auch Empfehlungen seitens Xenforo oder Wordpress - beides klassiche dynamisch erzeugte Seiten.
     
  1. Diese Seite verwendet Cookies, um Inhalte zu personalisieren, diese deiner Erfahrung anzupassen und dich nach der Registrierung angemeldet zu halten.
    Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies.
    Information ausblenden