Neuigkeiten:

moziloCMS verwendet Cookies. Wenn Sie auf unserer Seite weitersurfen, stimmen Sie der Cookie-Nutzung zu Datenschutzerklärung
moziloCMS Layouts
moziloCMS Plugins

Hauptmenü

Website Komprimierung? sinnvoll?

Begonnen von -FuFu-, 02. Mai 2013, 15:11:35

« vorheriges - nächstes »

-FuFu-

Ich google ja gern mal rum, was man so mit seiner Webseite anstellen kann oder was es so an Optimierungsmöglichkeiten gibt und nu bin ich auf die Komprimierung von website gestoßen.

das ganze kann ja die Ladezeiten größerer Seiten/Scripte verbessern, die frage ist nun ab welcher größe sowas sinnvoll ist oder ob es überhaupt sinnvoll ist.

bei apache servern kann man das ganz ja recht einfach per .htaccess lösen in dem man z.b. folgendes einfügt:
AddOutputFilterByType DEFLATE text/plain
AddOutputFilterByType DEFLATE text/html
AddOutputFilterByType DEFLATE text/css
AddOutputFilterByType DEFLATE text/xml
AddOutputFilterByType DEFLATE text/javascript
AddOutputFilterByType DEFLATE text/js
AddOutputFilterByType DEFLATE application/xml
AddOutputFilterByType DEFLATE application/xhtml+xml
AddOutputFilterByType DEFLATE application/rss+xml
AddOutputFilterByType DEFLATE application/atom_xml
AddOutputFilterByType DEFLATE application/javascript
AddOutputFilterByType DEFLATE application/x-javascript
AddOutputFilterByType DEFLATE application/x-httpd-php
AddOutputFilterByType DEFLATE application/x-httpd-fastphp
AddOutputFilterByType DEFLATE application/x-httpd-eruby
AddOutputFilterByType DEFLATE application/x-shockwave-flash
AddOutputFilterByType DEFLATE image/x-icon
AddOutputFilterByType DEFLATE image/jpg
AddOutputFilterByType DEFLATE image/jpeg
AddOutputFilterByType DEFLATE image/gif
AddOutputFilterByType DEFLATE image/png
AddOutputFilterByType DEFLATE image/svg+xml

BrowserMatch ^Mozilla/4 gzip-only-text/html
BrowserMatch ^Mozilla/4\.0[678] no-gzip
BrowserMatch \bMSI[E] !no-gzip !gzip-only-text/html
Header append Vary User-Agent env=!dont-vary

und ja, man kann es abkürzen und alles in eine Zeile packen, aber so ist es übersichtlicher und man kann leichter einzelne Dateitypen ausschliessen.

frage ist wie gesagt wie sinnvoll sowas ist, denn wenn ich jetzt von meiner Startseite ausgehe, sieht es da so aus:
Original Size: 8.2 KB
Compressed Size: 2.86 KB
Data Savings: 65.12%
(kann man hier testen: http://www.whatsmyip.org/http-compression-test/)
bei Bilder ist es sicher sinvoll, aber bei mir ist da kein großes Potential, liegt immer zwischen 1,7% und 3,3%.
Aber vielleicht weis ja hier jemand mehr über dieses Thema und kann da das ein oder andere zu sagen.

Danke fürs lesen ;) und danke für eventuelle Antworten :)

stefanbe

Das ist auf jedenfall sinfoll nicht nur in Sachen Geschwindigkeit.

Da sehr warscheinlich die Übertragung eines Byte auf den Rechner mehr Strom verbraucht als der Rechner Strom bracht für das zu Entpacken.

Bilder soltest du aber davon ausnehmen da sie sowieso auf ihrgend eine weise Komprimiert sind.
Wichtiger Bilder immer so klein (Grösse und Komprimierungs Stufe) machen wie sie gebraucht werden und noch gut aussehen.

lg stefanbe

-FuFu-

okay, den Faktor Strom hab ich nicht bedacht dabei, aber entpacken verbraucht doch mehr cpu-zeit wie das reine laden oder? da wären wir dann sicher wieder bei +-0 oder täusche ich mich da mal wieder?

die Bilder sind zu 90% optimiert, und so klein wie möglich gehalten, ist bei Bannern immer etwas schwer, da sie ja auch Optisch noch was her machen sollen :D aber ja, ich denke die Bildkomprimierung werd ich wohl raus nehmen, es da eh nicht viel Sinn machen. die 1 oder 2kb die man spart fallen da auch nicht mehr auf ^^

stefanbe

Zitat von: -FuFu- am 02. Mai 2013, 16:39:33aber entpacken verbraucht doch mehr cpu-zeit wie das reine laden oder? da wären wir dann sicher wieder bei +-0 oder täusche ich mich da mal wieder?
Das glaub ich nicht.

Überleg mal wieviel Geräte zwichen einer zur andern Netzwerkkarte gebraucht werden und was die so an Strom brauchen und dann Schau mal was sone CPU an Watt braucht.

-FuFu-

hmmm, kann schon sein, davon hab ich nicht so die Ahnung ;)
ich weis nur, das mein smartphone auf 300mhz mehr Akku verbraucht wie auf 600mhz, da das abarbeiten mehr wie doppelt so lange dauert ;)

aber jetzt wo ich die Komprimierung auf meinem webspace aktiviert hab, scheint die Seite gefühlt etwas schneller zu laden und das komprimieren der Bilder hab ich deaktiviert.

ansonsten ist die Komprimierung sicher auch sinnvoll für Leute, die keine traffic-flat haben (wobei das ja bei fast jedem ordentlichen hoster inbegriffen sein sollte)

Rainer

Ich würde auch sagen:
je schneller die Kiste und je dicker die Leitung, desto schneller kann (auch komprimierter) Inhalt geladen werden.
Aber wie immer, oft sind es die Bildchen die das ganze verlangsamen. Manche Bilder oder Grafiken können beim abspeichern ohne Probleme bis auf 40% runtergezogen werden.
Die Beispielgrafik macht das deutlich.
moziloCMS über Facebook bekannt machen
•• moziloCMS auf GitHub
••• Nichts ist einfacher, als das, was uns fremd ist, zu verachten.
•••• Mein moziloCMS

-FuFu-

das stimmt ;)
wie gesagt schau ich ja, das ich meine Grafiken recht klein bekomme, meistens mach ich das mit ACDSee Pro, ich hab aber auch noch Photoshop und Ulead Photoimpact da, meistens arbeite ich mit Photoimpact, da mir Photoshop doch etwas zu umfangreich ist.

aber bei meiner Bannerrotation krieg ich die Bilder nicht mehr viel kleiner, ohne das man es bemerkt, da werden die farbübergänge recht pixelig, aber bei größen von 76kb bis 186kb ist das noch okay, das sollte bei heutigem internet in wenigen sekunden geladen sein (wenn man davon ausgeht, das die meisten wohl DSL mit 3m/bit oder mehr haben werden), anders sieht es bei Galerien aus, wenn diese etwas umfangreicher sind, aber sowas hab ich zum glück nicht auf meiner HP derzeit

Moondancer

Auch wenn der Beitrag schon etwas älter ist ergänze ich mal. Ja die Pagespeed ist ein wichtiges Google / Bing Ranking Kriterium, vor allem im mobile Ranking. Ich empfehle an der Stelle zum optimieren diesen kostenlosen Service, der auch gleich die optimierten Grafiken zum Download anbietet : http://www.gtmetrics.com

Neben der GZIP Komprimierung sollte auch der Leverage Browsing Cache in der .htaccess Datei gesetzt werden:
<IfModule mod_expires.c>
ExpiresActive On
ExpiresDefault "access plus 1 month 1 days"
ExpiresByType text/html "access plus 1 month 1 days"
ExpiresByType text/htm "access plus 1 month 1 days"
ExpiresByType text/php "access plus 1 month 1 days"
ExpiresByType image/gif "access plus 1 month 1 days"
ExpiresByType image/jpeg "access plus 1 month 1 days"
ExpiresByType image/png "access plus 1 month 1 days"
ExpiresByType text/css "access plus 1 month 1 days"
ExpiresByType text/javascript "access plus 1 month 1 week"
ExpiresByType application/x-javascript "access plus 1 month 1 days"
ExpiresByType text/xml "access plus 1 seconds"
</IfModule>


Beim eTag streiten sich momentan die Experten ob dieser gesetzt werden soll.
Suchmaschinenoptimierung, Webentwicklung und Onlineshops http://flupdiwup.de

Thorstn

#8
Ähm... naja, das mag ja alles so sein, ich will das gar nicht anzweifeln mit dem Optimieren und Komprimieren, bloß...

In der realen Welt hat der Webseitenbetreiber ein Webpaket bei einem Hoster, in der Regel also einen Shared-Acount mit vielen anderen Usern. Und je nach Auslastung der CPU des betreffenden Servers kann eine Webseite (rein HTML, oder auch ein CMS, moziloCMS oder auch Wordpress) in 1-2 Sekunden, aber auch in 20 Sekunden laden.
Der einzelne Webseitenbetreiber kann da einfach keinen Einfluss drauf nehmen.

Beispiel: Viele Kunden von uns wollen in Google und Co. schnell gefunden werden. Das Übliche also. Bis dato unbekannte und unverlinkte Domains (weil neu) melde ich also in den Suchmaschinen an.
Und hier und da meckert z.B. Google (eingeloggt mit Google-Konto), dass die Seite nicht erreichbar sei. Obwohl der Seitenaufbau mit 10 Sekunden jetzt nicht zwingend "nicht erreichbar" ist.

Mein Beitrag ist etwas vom Thema weg (Offtopic), aber dennoch spielt die Serverauslastung der jeweiligen (Shared-) Präsenz auch eine entscheidende Rolle.
Blöd also, wenn Google und Co. ihre Robots losschicken, und just in diesem Moment ein Script-Kiddie wieder seine neuesten Errungenschaften auf dem Server ausprobiert...

;)

Mich persönlich nervt das aber... also wenn meine Seite(n) langsam oder gar nicht erreichbar sind. Wie gesagt, hat jetzt nichts mit der Komprimierung zu tun (eher am Rande), weil ich das (bis dato) nicht gemacht habe.

Grüße aus Bochum,
Thorsten

Edit: missverständliche Rechtschreibfehler (hoffentlich) korrigiert
www.mad-it.de - Wir lösen keine Probleme. Wir machen sie.
Webdesign aus Bochum

Moondancer

Hallo Thorsten,

da gebe ich Dir natürlich Recht was die Shared-Hosting Problematik betrifft. Die Wahl des richten Hosters ist strategische Entscheidung. In den meisten Fällen sind es veraltete Softwaresysteme mit Sicherheitslücken die zu der Serverlast führen. Wenn dann die Administratoren und der Support nicht reagieren, hat man als Kunde auf dem Server verloren. Das habe ich über 2 Jahre als Angestellter eines großen Hosters oft erlebt. Gern gebe ich eine Empfehlung, wo man bezahlbaren und schnellen Webspace mit guten Support bekommt, wenn's interessiert.  ;)

Die technische Optimierung ist eine wichtige Sache. Das betonen die Google Techniker immer wieder. Die Pagespeed gehört zu den Wichtigeren der über 200 Rankingfaktoren. Google hat dafür sogar einen extra Service eingerichtet. Es gibt auch ein sehr hilfreiches Firefox Addon von Google dafür. Mit wenig Aufwand erfüllt man die Vorgaben von Google und hat so einen Vorteil gegenüber der Konkurrenz. Das echte Ranking sieht man meist erst nach einigen Wochen wenn die neue Domain aus der Sandbox entlassen wird. Bis dahin hat man Chancen Google bei der ersten Einschätzung bzw. Zuordnung zu helfen.

Google hat kein Problem mit kurzfristigen 404 Seiten. Es sollte jedoch kein Dauerzustand werden. In jedem Fall sollte das Crawling in den Webmaster Tools beobachtet werden.

Also ich kann es jedem nur raten die technische Optimierung durchzuführen.

Grüße aus Halle und ein erholsames Wochenende wünsche ich
Dirk
Suchmaschinenoptimierung, Webentwicklung und Onlineshops http://flupdiwup.de

wasp

#10
-- Offtopic : --
REHI! moondancer !   :geek:

Leider ist Deine MEGA-Empfehlung MoWes portable von damals leider nun tot - Doch finde ich es klasse,das du hier vllt. wieder öfter reinschaust...


Moondancer

Hallo Stefan,

ich bemühe mich.  ;) Ja schade das das Projekt eingestellt wurde. Als lokalen Server benutze ich jetzt meist portable XAMPP und USB Webserver http://www.usbwebserver.net
Suchmaschinenoptimierung, Webentwicklung und Onlineshops http://flupdiwup.de