![]() |
AW: Speicherbedarf Firefox
Zitat:
Aber wie gesagt, der Fall von Unendlich-Scroll-Seiten interessiert mich eh nicht, weil JavaScript da ja eh schon aktiviert sein muss. Ich rede von Bildern in komplett statischen Seiten wie Nachrichtenseiten oder Blogs. Dort ist es mir ein Dorn im Auge. Allerdings wäre es davon abgesehen schön, wenn auch diese Unendlich-Scroll-Seiten bei deaktiviertem JS sinnvoll downgraden würden. Es ist nicht sonderlich schwierig, ich habe es selbst schon gemacht. Es fehlt nur der Wille. |
AW: Speicherbedarf Firefox
Zitat:
Hab das auch mal beruflich gemacht und durch verwenden von JS-Frameworks kann man sich schonmal einiges an Arbeit sparen, was das Bedienen der unterschiedlichen Plattformen angeht ( im Prinzip das selbe Schema wie´s Feueräffchen). Trotz Frameworks ist der Aufwand enorm, dann kommt noch SEO-Krams dazu und dann möchtest du auch noch Downgrades für JSVerweigerer :p |
AW: Speicherbedarf Firefox
Es ist absolut legitim und IMHO auch Pflicht JS zu blocken. Allein durch Werbescripte kann auf einer ansonsten 100% seriösen Seite unlauterer Code zur Ausführung kommen. Das ist gerade erst wieder durch die Fachpresse gegangen. So lange mir keiner zu 100% belegen kann, daß JS unschädlich ist, so lange bleibt es als potentiell schädliche Marketingmaßnahme aus. FB und Konsorten interessieren mich ohnehin nicht. Und ja: Ich komme von Früher™ :D
Sherlock |
AW: Speicherbedarf Firefox
Zitat:
Und das machen sie natürlich nicht aus Gemeinnützigkeit, sondern aus zwei Gründen: 1. Es macht anderen Browser-Entwicklern das Leben schwer und sorgt so dafür dass ihr eigener Browser Chrome einen Wettbewerbsvorteil hat (vor allem am Anfang war Chrome ja so ziemlich der einzige Browser mit schnellem JavaScript) 2. Die Leute werden angehalten ihre JS-Frameworks von Googles öffentlich verfügbaren Servern zu laden, weil ___a. es bequem ist ___b. es sonst auch wieder Abzug bei der Geschwindigkeitsnote gibt Letzteres ist für Google extrem wichtig, weil sie es zum Datamining einsetzen. Ich habe das selbst erlebt. Ich hatte eine nicht öffentliche Test-Website auf einer Subdomain, die definitiv nirgendwo verlinkt war, aber öffentlich zugänglich. Plötzlich war sie im Google-Index. Warum? Ich hatte JQuery von Googles CDN eingebunden. Google wertet offenbar den Referrer aus. Da ist mir klar geworden, warum Google diese ganzen Hostingdienste (auch Google Fonts usw.) kostenlos betreibt. Es ist nicht aus Großzügigkeit, sondern das ist wie eine Push-Notification für die, immer wenn es eine neue Seite gibt. Google kann so viel schneller auf neu erscheinende Seiten reagieren. Früher hat es Wochen gedauert, bis eine Seite in den Index aufgenommen wurde, heute sind Seiten meist nach ein paar Stunden schon im Index. Das wird sicherlich damit zu tun haben. Und noch besser, Google findet auf diese Weise sogar Seiten, die nirgendwo verlinkt sind. Auch dadurch sichert Google sich einen Vorsprung gegenüber anderen Suchmaschinen. Für Google ist das also eine Win/Win-Situation, sowohl auf dem Browsermarkt als auch auf dem Suchmaschinenmarkt. Ob das für den Rest der Welt auch ein Mehrwert ist, ist eher zweifelhaft. Und auf eine Sache bin ich noch gar nicht eingegangen: Dass diese eingebundenen 3rd-Party-Skripte auch benutzt werden können, um User zu tracken ist ja völlig klar. |
AW: Speicherbedarf Firefox
Zitat:
|
AW: Speicherbedarf Firefox
Ich habe irgendwie das Gefühl, dass es hier langsam nicht mehr um den Speicherverbrauch eines bestimmten Browser geht. Hier geht es wohl eher um Glaubenskriege. Auch wenn bestimmt interessant Dinge dabei sind. :roll:
Aber es sollte doch jeder seinen Browser so einstellen wie er es für richtig hält. Wenn jemand JS nicht mag, dass soll er es ausschalten. Brauch sich dann aber nicht wundern, wenn diverse Seiten nicht laden. Jemand der JS standardmäßig aktiviert hat kann zwar wunderbar alle Seiten ohne Probleme laden, sollte sich dann aber nicht wundern, wenn er sich durch eine Sicherheitslücke einen Virus einfängt. |
AW: Speicherbedarf Firefox
Google und andere Such-/Index-Portale müssen nicht unbedingt so ihren Index füllen. Sie bekommen oftmals auch ganz direkt die Informationen zugesendet.
Ich hab für meine Webseite ein selbstgehostetes WordPress (von WordPress.org) als Basis und dort wird standadmäßig erstmal an WordPress.net die neuen Posts mitgeteilt, damit in deren Newstickern das mit auftauchen kann und ich lasse auch Google das schicken. Über die index.xml kann so Google schneller und vorallem richtig die Webseite indizieren und deren Suchbot muß nicht ständig meine komplette Seite durchackern, weil sie schon wissen welche Unterseiten es gibt und wie alt sie sind. Nervig beim Nachladen ist, wenn im HTML nicht bereits die Größe der Bilder hinterlegt ist, damit der Platzhalter gleich die richtige Größe hat und dann nicht ständig auf der ganzen Seite alles umherrutscht, bis die Bilder geladen wurden. Auch zusammengefaltete Code-Blöcke werden erstmal entfaltet geladen, falls Javascript inaktiv ist. Was besonders toll bei Sprungmarken ist, wenn die dann auch wegrutschen und man nicht da landet, wo man hin wolle. (Anker) |
AW: Speicherbedarf Firefox
Zitat:
Die haben mir auch sehr geholfen bei der Webseitenoptimierung. Zitat:
Denn die filtert quasi alle neue Bedrohungen sehr zuverlässig heraus indem z.B. schlicht geschaut wird wie viele Nutzer die Software schon nutzen. Ist es eine neue Software wie z.B. ein neuer Virus, wird erst einmal blockiert. Wer dann dies manuell umgeht, kann die Software nach der Warnung natürlich ausführen (das ist aber meistens nicht so einfach und damit für den normalen Nutzer kaum zu machen), liefert dann an dieses Netzwerk aber auch die Information, ob sich die Software verdächtig verhält. Dass eine reine Heuristik nicht alles findet, ist schon richtig, aber Antivirensoftware besteht schon noch aus deutlich mehr... |
AW: Speicherbedarf Firefox
Zitat:
|
AW: Speicherbedarf Firefox
Zitat:
Dass im Browserkontext selbst Schadcode ausgeführt wird, lässt sich dadurch natürlich nicht unbedingt vermeiden. Aber das Installieren von Malware und damit der Hauptzweck eines solchen Angriffs schon. Die Deaktivierung von Javascript ist für die meisten Benutzer, mich selbst eingeschlossen, keine Option. Insofern ist dieser Schutz besser als gar kein solcher Schutz. Dann wie schon erwähnt wurde: Vorsicht hilft an der Stelle auch nicht immer weiter, dann Malware kann sich auch auf absolut vertrauenswürdigen Webseiten verstecken. Ein gutes Beispiel ist hier für die welcome page in Delphi selbst, die von dem angegriffenen Server von Embarcadero nachgeladen wurde. Egal welcher Browser und egal ob Javascript deaktiviert ist, Angriffe sind immer möglich. Durch Vorsicht minimiert man nur die Wahrscheinlichkeit, dass etwas passiert. Und genau das ist auch der Ansatz von Antiviren-Software. Deshalb ist beides sinnvoll. |
Alle Zeitangaben in WEZ +1. Es ist jetzt 20:04 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz