Skocz do zawartości
  • Przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników, przeglądających tę stronę.

krzysiuus

Mozilla FireFox zabiera zbyt dużo pamięci RAM. Optymalizacja Firebug / AdBlock

Promowane odpowiedzi

krzysiuus    5

Panowie sprawa jest taka, najnowszy firefox i do niego kilka dodatków, główne to firebug, adbock coś do zrzutów ekranu, valiador w3c i miarka rozdzielczości.

 

Podczas intensywnej pracy firefox zjada mi do 2GB RAMU!

Jak zakończę jego pracę z poziomu manager'u zadań i włączę od 0 wszystko jest ok do czasu...

 

Zmieniłem adblocka na uBlock zachęcony iż jest lepiej zooptymalizowany i fakt całość działa lepiej jednak nadal to nie jest to...

 

Optymalizował ktoś z was już tego potwora?

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
naxiu    308

Miarka rozdzielczości - do czego to służy?

Validator w3c - jest Ci to na prawdę potrzebne?

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
krzysiuus    5

Valiador standardowo jest wyłączony.

Miarka rodzielczości pokazuje mi jak ją włączę jaką szerokość dokładnie w px ma otwarte okno przeglądarki (pomocne przy RWD).

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
naxiu    308

Próbowałeś reinstalować Firefox'a? Kurczę, niemożliwe jest żeby FF zżerał Ci aż 2gb pamięci... hm

 

Mam trochę więcej rozszerzeń i na 10 kartach zżera mi ok. 600mb

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach
krzysiuus    5

Kurcze dobra w poniedziałek w pracy zrobię screena managera zadań jak sprawa wygląda.

 

Podczas pracy tzn. używając firebug'a.

Mam otwartych też z 10-15kart.

 

Dodam że instalacja systemu praktycznie nówka gdyż zmieniałem dysk na ssd.

Udostępnij tego posta


Odnośnik do posta
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony.


  • Podobna zawartość

    • Przez arces
      Podejmę się wszelkiego kodowania layoutów (PSD to HTML/CSS/JS), ewentualnie zaprojektowania małych stron wizytówek. Mogę zaoferować również edycję/optymalizację Twojej aktualnej strony internetowej! Za wolno wczytuje Ci się strona? Masz za niską pozycję w google? Napisz, dogadamy się, a następnie postaram Ci się pomóc!

      Za jaką kwotę?: Kwota ustalana indywidualnie, w zależności od skomplikowania projektu/edycji/optymalizacji.

      Przykładowe prace: Portfolio, które cały czas jest w budowie (http://arces.linuxpl.eu/)
       
      Dodatkowe informacje:
      Kodowaniem zajmuję się od ponad dwóch lat. Aktualnie pracuję dla jednej z wrocławskich agencji reklamowych, gdzie jestem FrontEnd Developerem. Mając nadmiar wolnego czasu szukam zleceń prywatnych. Oferuję strony w pełni responsywne, z "czystym" kodem oraz kompatybilne z jak największą liczbą przeglądarek (oczywiście w granicach rozsądku).

      Zapraszam do kontaktu!
    • Przez Mentosx2
      Siema, dziś postanowiłem wbić na google analyst i nie mogę. wywala mi błąd. Na firefoxie działa, tylko na Google Chrome cos nie chce a z tego korzystam ogólnie.
       
      http://scr.hu/7wqa/s5es6
       
      Jeśli chodzi o rozszerzenia to posiadam takie:
       
      http://scr.hu/7wqa/vbi53
       
      Wie może ktoś o co chodzi? Wcześniej działało mi normalnie.
    • Przez ulung
      Czym jest pozycjonowanie i jak wypozycjonować naszą stronę.
      Czym jest pozycjonowanie?

      Pozycjonowanie to skuteczna forma przesuwania naszej strony w wynikach indeksu wyszukiwarki, na jej części składowe i cały proces składa się po kolei: optymalizacja stron po ich rejestracji w wyszukiwarkach, a następnie właściwe pozycjonowanie. Jak wiadomo jest to najlepsza obecnie i najtańsza (wbrew pozorom wszelkiego rodzaju programy typu Adsense, bidvertiser, OnetKontekst i inne temu podobne nie dają tak dużej skuteczności jak skutecznie i mądrze przeprowadzane pozycjonowanie strony) forma reklamy strony w wyszukiwarkach i do tego najtańsza z możliwych, bowiem inne metody (np. zakup płatnych linków) są o wiele droższe i niejednokrotnie dają nawet mniejszy efekt niż spodziewany.

      Jak wypozycjonować stronę?

      1. Na kunszt pozycjonowania składa się kilka rzeczy, pierwsza sprawa to dobra optymalizacja strony, czyli takie dostosowanie
      zawartości danej strony tak, aby zawartość jej była dobrze czytelna nie tylko dla oka ludzkiego, ale też i robotów 
      wyszukiwarek (oczywiście każdy kładzie nacisk na wyszukiwarkę google). Pierwsza sprawa to meta tagi
      Poniżej Ci napisałem naprawdę porządnie wyglądające meta tagi, chociaż niektóre wyszukiwarki trzeba to powiedzieć otwarcie już nie zwracają na wszystkie uwagi i tak dla przykładu google zwraca szczególną uwagę tylko na title strony, który powinien znajdować się maksymalnie wysoko, zaraz praktycznie za sekcją head 
      <head> <title> Ważny skladnik, o który, zapominaja początkujący webmasterzy, miaowicie DOCTYPE oraz równie ważny początek nagłówkowy HEAD no i wiadoma sprawa - tytul strony - slowa...jakieś tam 100 znaków najlepiej opisujących naszą stronę/serwis </title> <meta http-equiv="Content-Type" content="text/html; iso-8859-2"> iso to jest standard jaki powinienes miec, by ludzie nie widzieli tak zwanych "krzaków" <meta name="title" content="tytul strony-slowa,jakies,tam,maksymalnie 100 znakow"> nie więcej niż 100, wklepując więcej wyrazów nic nie uzyskasz i tak będą zignorowane <meta http-equiv="Pragma" content="cache"> <meta name="ROBOTS" content="INDEX,FOLLOW"> <meta http-equiv="Content-Language" content="pl"> jezyk strony www <meta name="description" content="opis strony, do 256 znakow powinno byc ok"> ważne by nie wklepywać tego więcej, bo i tak jest to ignorowane <meta name="abstract" content="krotszy opis strony, do 100 znakow"> np. msn roboty na to zwracają uwagę jak mnie pamięć nie myli, inne w zasadzie na to nie zwracają uwagi <meta name="keywords" content="slowa,kluczowe"> pamiętać należy, że spacja to też jeden znak, zatem nie oddzielajny słów kluczowych spacjami <meta name="author" content="ktos tam"> autor <meta name="publisher" content="ktos tam"> publikujący stronę <meta name="copyright" content="ktos tam"> prawa autorskie <meta name="rating" content="General"> zawartość strony może być dla ogółu - General, dorosłych - adult <meta http-equiv="Reply-to" content="jakisadres@adres.pl"> twoj adres mail do kontaktu <meta name="creation_Date" content="31/08/2005"> data utworzenia strony, też taki tag może się przydać, ale sporadycznie jest to stosowane <meta name="expires" content="Fri 31 december 2100"> wygasanie strony www, jeśli przewidujesz takie rozwiązanie, w zasadzie jest to sporadycznie stosowane, ale czasami może się także przydać <meta name="revisit-after" content="7 days"> robot będzie powracał co 7 dni, w sumie jest to fikcja niejednokrotnie a te tagi pomimo, iż są używane nie stanowią faktycznie jakiegoś większego znaczenia... robot często gęsto powraca co 3 tygodnie, ale co tu sie dziwić, przecież witryn są miliardy... <meta name="doc-rights" content="Copywritten work"> strona jest chroniona prawami autorskimi, sporadycznie lub wcale nie używany już tag <meta name="doc-class" content="Completed"> status witryny - ukończona - sporadycznie lub wcale nie używany już tag <meta name="MSSmartTagsPreventParsing" content="true"> microsoftowe boty nie będą zasysać informacji o twojej stronie www, teraz w zasadzie możliwe jest to także przez odpowiednią edycję pliku robots.txt tytul strony, do 100 znaków </head> 2. Kolejna sprawa to dodanie strony do wyszukiwarek oraz do katalogów plików, aby tego dokonać możesz skorzystać z wielu automatów jakie są w sieci dostępne, możesz także wydać nieco pieniążków na dodanie Twojej strony przez firmę do wyszukiwarek, które z reguły oferują nie wiadomo jakie to efekty jak dodadzą stronę do np. 4000 wyszukiwarek. Myśląc zdroworosądkowo i biorąc pod uwagę statystyki, obecnie właściwie tylko google się liczy, reszta choćby i łącznie nie stanowi konkurencji, ale jak ktoś jest uparty niech się skupi jeszcze na msn i yahoo, oraz polskich onet i wp. 

      3. Następnie mając już dodaną stronę do wyszukiwarek i katalogów plików zadbaj o to, by Twoje linki znalazły się w wielu miejscach na innych stronach www. Staraj się aby nawiązać współpracę z licznymi serwisami, aby móc najniższym kosztem uzyskać możliwie najwyższą pozycję w google i tzw. pagerank, który świadczy o pozycji Twojej strony www. Dobrym pomysłem jest także wymiana linkami w systemach darmowej wymiany linków, dzięki czemu będziesz mógł także uzyskać wyższą pozycję i efekt w postaci wizyt na Twojej stronie www liczniejszej grupy odwiedzających.

      4. Inną możliwością są także możliwości brania udziału w płatnych formach promocji Twojej strony www. Np. Google Adsense, albo Clicksor bądź też takich form reklamy jak boki reklamowe w wp.pl albo onet.pl albo w innych serwisach, ale jak wiadomo takie formy reklamy są kosztowne z reguły, zatem mało kto chce, albo może sobie na coś takiego pozwolić.

      5. Treść, treść i jeszcze raz treść mój Drogi Czytelniku! Co nam przyjdzie po tym, że masz dobrze stronę spozycjonowaną i bierzesz udział w systemach wymiany linków, skoro nie masz wystarczająco dużej ilości konkretnej treści i np. wiedzy po którą ktoś będzie chciał "wdepnąć" na Twoją stronę www? 

      6. Znaczniki "h1, h2, h3, h4, h5" - pamiętaj, że robot szuka treśći tak jak Ty szukasz nagłówków w gazetach.

      7. Postaraj się, aby każdy odnośnik na Twojej stronie www miał przypis w postaci title="jakas nazwa" - dwa wyrazy wystarczą, ale już będzie to znak dla robota, że musi to przeanalizować. Często początkujący webmasterzy zapominają o tym, że nawrzucając dużo grafiki na stronie www jest ona obojętna dla robotów. Nic bardziej mylnego, lepiej mieć tekst niż grafikę, a jeśli już się starasz pokazać na co Cię stać w photoshopie, to daj obwolutę np. title="logo strony" wtedy też robot to "zeskanuje".
      8. Zadbaj o właściwą ilość linków wskazujących na Twoją stronę WWW, czyli tak zwane back links... linki zwrotne, ich źródłem może być praktycznie każda forma umieszczania linków na innych stronach, czyli katalogi typu qlweb (można do tego stosować np. programy katalogujące (uwaga! One nie pozycjonują, to tylko komercyjny chwyt ), więcej o tym już wkrótce może na stronie o Adder, kupowanie linków na stronach osób trzecich, albo też pisanie postów, artykułów w sposób uczciwy i publikowanie ich na zgodnie z TOS witryny, czyli regulaminami i 

      Myślę, że z takim bagażem doświadczeń spokojnie będziesz się piąć na wyżyny... google ;-)

      9. wpływ na pozycjonowanie ma:
      a) budowa strony, jej sktruktura, należy pamiętać na pewno o operowaniu nadal ładnym title na stronie WWW (przykład: Pan Kowalski ma stronę o kotach bengalskich, to jego title strony winien zawierać przynajmniej jedno słowo kluczowe: kot bengalski), oraz H1, H2, H3 i całej reszcie nagłówków, tak aby robot google widział jak wygląda struktura dokumentu i aby mu się podawało treść w najbardziej przystępnej formie, pamiętajmy także o mod_rewrite, oraz o tym żeby mieć dynamic titles (dynamiczne tytuły na stronie WWW) 

      b) Sposób budowy struktury strony www, czyli w jaki sposób budować np. podstrony na stronie www. To bardzo trudny temat, jedni się z tą teorią zgodzą inni nie, ja z doświadczenia wiem, że warto jednak podać treść robotowi tak, aby ją szybko zassał, a nie męczył się z tym miesiącami, bo indeksacja potrwa szybciej i będzie trwalsza, w szczególności po ostatnich zmianach w indeksie google, który praktycznie wyciął w pień różnego rodzaju wynalazki w stylu: kopie wikipedii, dmoz, youtube kopie. Polak potrafi jak to się mówi, także każdy kombinował jak mógł żeby tylko naklepać podstrony w systemach wymiany linków, potem doszło do tego, żę google się za to zabrało i pobanowało kopie wikipedii
      Obecnie mało kto stawia wikipedie, są jednak śmiałkowie (spamerzy), którzy to nadal robią skutecznie i wychodzi im to całkiem fajnie, spójrzmy np. na taki mix: Dropped.pl i zobaczcie ile ma to podstron w wyszukiwarce.
      Z etycznego punktu widzenia jest to postępowanie niezgodne pewnie z regulaminem, chociaż podobno jak się doda, że jest to kopia wikipedii i da się linka do strony głównej to można. Ja wiem jednak,że tak czy siak robot google może to potraktować za spam, także stawianie wikipedii jest bezcelowe, przekonało się o tym wielu domorosłych pozycjonerów.
      Co zatem warto robić? Warto jest mieć mnóstwo sił i tworzyć własne strony, które się ciężko tworzy i potem z tego jest wartościowy content. Jest jeszcze ew. coś takiego jak scuttle system który pozwala na tworzenie nam listy podstron z linkami, które są taką jakby zakładką online, która nawiasem mówiąc jest bardzo przydatna, pod warunkiem, że ktoś z tego nie zrobi śmietnika.

      c) LINKOWANIE - odwieczny i największy problem w całej kwestii pozycjonowania. Specjaliści mówią - cierpliwie i stanowczo do celu... ano, tak też właśnie powinno być, tylko skąd brać na to linki ?

      Są systemy wymiany linków, zwane potocznie SWL, ale mają one swoje plusy i minusy, jak wspomniałem powyżej 'spamiary' są tak czy siak tworzone, różnego rodzaju świńskie strony porno także i na nich snajdują się także linki z systemu wymiany linków i co wtedy? Ano nasza strona jest na nich widoczna, a dodatkowo google.pl nadaje punkty ujemne z tym związane, dlatego warto jest się zastanowić zanim się przystąpi do linkwania z takiego systemu. Zdecydowanie lepsze rozwiązania są z tym związane, ale to się już wiąże z większym nakładem finansowym. Ja tylko osobiście ostrzegam, że jeśli komuś zależy nie tylko na samym efekcie pozycjonowania domeny firmowej, ale też i na wizerunku firmy powinien uważać i przemyśleć to jaki system wybierze, na pewno najlepsze są takie systemy, które pozwalają wejrzeć w strukturę umieszczenia naszych linków na stronach, które są w systemie.
    • Przez SeNioR
      Optymalizacja jest szeregiem działań mających na celu przygotowanie strony pod wyszukiwarki, aby te lepiej interpretowały naszą Twoją stronę i wyżej notowały pozycję strony w rankingu wyszukiwania.
       
      Bezbłędny kod HTML
      Pierwszym etapem optymalizacji jest dostosowanie kodu źródłowego strony aby przechodziła bezbłędnie Walidację W3C. ten element nie jest obowiązkowy, ale jak dbamy o to, aby nasza strona była poprawnie zoptymalizowana to nie powinna zawierać błędów. Walidację powinna wykonać firma wykonująca stronę internetową w przeciwnym razie pozostaje nam zapoznanie się z tajnikami języka HTML.
       
      Optymalizacja skryptów
      Optymalizacja skryptów polega na wyeliminowaniu zbędnych dodatków na naszej stronie np. padający śnieg czy muzyka w tle. Wszystkie te elementy wpływają negatywnie na czas ładowania strony, a jak wiadomo, nie tylko wpływa to na pozycjonowanie ale również wielu potencjalnych klientów może zniechęcić długo czas ładowania strony i zrezygnują z oglądania strony. Maksymalizuj ilość kodu CSS (Kaskadowe Arkusze Styli) wykorzystując ich możliwości np. zamiast rozwijanego menu w Java wykorzystaj CSS.
       
      Technologia Flash
      Strony wykonane w technologii Flash mimo, że ładnie wyglądają, jeszcze ładniej się po nich porusza, to dla Google jest to tylko obrazek. Zdecydowanie odradzam umieszczania elementów flash na stronie jaki samych elementów. Flash jest stosunkowo ciężkie a więc znacząco wydłuża czas ładowania strony.
       
      Strony oparte na ramkach
      Kilka lat temu były bardzo popularne, ale teraz unikaj ich jak ognia
      Ramki są przestarzałą technologią budowania stron i na palcach jednej ręki można wyliczyć strony które są na pierwszej stronie w Google. Google mimo stara się aby strony prezentowały najwyższą jakość informacji, a stara technologia przeważnie oznacza starą stronę.
       
      Optymalizacja meta tagów
       
      Ten element jest jednym z najważniejszych elementów optymalizacji kodu źródłowego naszej strony. W tym miejscu musimy postępować zgodnie z zasadami:
      znacznik TITLE – w tym miejscu podajemy nasze słowa kluczowe w kolejności od najważniejszego do najmniej ważnego. Długość tego znacznika to 70 znaków, więcej Google utnie i nie pokaże w wynikach wyszukiwania. Ten znacznik w znaczącym stopniu będzie wpływał na określenie tematyczności strony jaki na cały proces pozycjonowania znacznik meta keywords – tutaj podajemy słowa kluczowe po przecinku, maksymalna długość pola to 255 znaków znacznik meta description – w tym miejscu uwzględniamy najważniejsze słowo kluczowe oraz zachęcający opis. Ten tekst o maksymalnej długości 255 znaków będzie wyświetlał się pod linkiem w Google dla Twojej strony. Ze względu na nadużywanie tych znaczników większość wyszukiwarek pomija te elementy (meta keywords, meta description) ale nic nie szkodzi nam wypełnić tych pól aby zwiększyć konwersję wejść na naszą stronę internetową.
       
      Sitemaps czyli mapa strony
      Jednym z zaleceń dla webmasterów jaki pozycjonerów, którzy chcą, aby wszystkie podstrony w naszym serwisie byly zaindeksowane powinny znaleźć się w sitemaps. Mapę taką możemy wygenerować za pomocą darmowych serwisów online. Ważne, aby taka mapa była z rozszerzeniem XML.
       
      Sposoby linkowania podstron
      Adres naszych podstron powinien posiadać przyjazną wersję czyli przykładowo adres nieprzyjaznych adresów to: domena.pl/index.php?id=1345&siud=12
      a adres przyjazny wyszukiwarką jaki użytkownikom to adres domena.pl/o-nas.html
      Czy nie ładniej wygląda? Czy nie jest łatwiejszy do zapamiętania?
       
      Waga strony
      Waga strony czyli ciężar, a dokładniej wielkość kilobajtów jakie muszą zostać załadowane, aby nasza strona wyświetlała się szybciej, to również element istotny. Im mniej bajerów na naszej stronie tym szybszy czas ładowania naszej strony. Zadbaj o kompresję zdjęć, zmniejsz kod źródłówy strony i usuń zbędne elementy kodu na naszej stronie.
       
      Domena z www czy bez www?
      Ważnym elementem optymalizacji jest wyświetlanie strony w domenie z www i bez www, dla Google są to dwie różne strony. Wybierz jedną wersję i trzymaj się jej, a najlepiej wykonaj przekierowanie 301 w pliku .htaccess
      Wykonanie tego elementu wyeliminuje kopie naszej strony, co w dzisiejszych czasach jest na prawdę ważne.
      TREŚĆ:
      Ważnym elementem optymalizacji strony jest stosowanie tzw. „heading tags”, czyli potocznie znane wszystkim nagłówki. Nagłówki są określane w skali od 1 do 6, a najważniejsze jest to, że wielkość nagłówków jest określana w odwrotnej kolejności, czyli 1 będzie największym nagłówkiem, a 6 najmniejszym. Nagłówki stosuje się zawsze od największego do najmniejszego, aby zwiększyć wagę danego słowa kluczowego. Nagłówki powinny być zastosowane według poniższego przykładu:
       
      <h1>Tytuł</h1>
      < h2>Słowo najważniejsze</h2>
      < h3>Słowo prawie najważniejsze</h3>
      < h4>Słowo ważne</h4>
      < h5>Słowo mniej ważne</h5>
      < h6>Słowo mało ważne</h6>
       
      Dodatkowym elementem optymalizacji strony są znane wszystkim podstawowe znaczniki html, czyli:
       
      <b> – tłusty druk
      <u> – podkreślony
      <i> – kursywa
       
      Jeżeli cała treść na naszej stronie zostanie rozmieszczona w odpowiednich znacznikach, to czeka nas kolejny, etap, czyli zwiększenie nasycenia strony słowami kluczowymi. Jednym z najczęściej stosowanych elementów, gdzie można umieścić słowa kluczowe, to tekst alternatywny, czyli znacznik alt=”tekst alternatywny” w znacznikach w których zakodowaliśmy obrazek na naszej stronie. W kodzie naszej strony uzupełniamy tekst alternatywny jaki znajdziemy w liniach:
       
      <img src=”obraz.jpg” alt=”teks alternatywny” />.
       
      Teraz pozostaje nam tylko uzupełnienie treści na stronie w której zostaną umieszczone słowa kluczowe. Warto jest umieścić słowo kluczowe już na samym początku naszej strony, oczywiście z zastosowaniem powyższych informacji. Ilość słów kluczowych na stronie nie może być za dużo, gdyż można odstraszyć potencjalnego klienta z naszej strony.
       
      Źródło: Tomasz Bołoz
      Artykuł pochodzi z naszego nieaktywnego już bloga.
    • Przez SeNioR
      Optymalizacja dla wyszukiwarek jest to bardzo gorący temat w World Wide Web. Celem każdego z nas jest zdobycie jak najwyższej pozycji w rankingu Google. Walczymy o to, aby po wpisaniu danej frazy nasza witryny wyświetliła się na pierwszej stronie wyników wyszukiwania. Dlatego musisz zoptymalizować swój serwis. Technik jest wiele, ale postaram się Tobie przybliżyć  najczęstsze praktyki stosowane przez pozycjonerów.
       
      Anchor text – mam nadzieję, że już wiesz co to jest, a jeżeli nie to zapraszam do słowniczka webmastera.
      Jako treść anchora wstaw Twoje słowa kluczowe. Link nie może wyglądać w ten sposób „fajna strona”. Raz, że nie jest to zachęcające hasło, a dwa zmniejsza się wpływ na pozycjonowanie. Linkuj wewnątrz serwisu – umieszczając wpis na stronie, dodaj w treści link do innego wcześniejszej już napisanego. Oczywiście musi być konkretny cel tego działania. Wpisy muszą być podobne do siebie. Chmura tagów – koniecznie umieść chmurę na swojej stronie. Zbadaj swoją grupę docelową – warto wiedzieć kim są Twoi odbiorcy. Aktualizuj treść – często wspominam o tym, ponieważ jest to bardzo ważny temat. Goście odwiedzający stronę nie lubią, kiedy nic się nie dzieje. Zwrócisz na siebie uwagę dodając treść na bieżąco. Częste aktualizacja przyciąga pająki wyszukiwarki do indeksowania stron. Używaj rel = „nofollow” w linkach o niskiej wartości. Przykładowo w sondzie, „głosuj”. Optymalizacja obrazów – twórz tagi w znaczniku alt. Przyjazne adresy – jeżeli Twoje adresy URL zawierają w sobie znaki typu: ?, !, czas to zmienić. Myślnik –  tworząc adresy do kolejnych artykułów czy podstron nie używaj podkreślenia. Przykład: www.mojastrona.pl/pierwszy_wpis_na_stronie
      Lepiej użyć myślnika ze względu na wyszukiwarki. Przykład:
      www.mojastrona.pl/pierwsz-wpis-na-stronie Flash / JavaScritpt – w przypadku, gdy Twoje menu czy inny element strony wykonany jest w którejś technologi, zadbaj o jego tekstową alternatywę. Wyszukiwarki mogą mieć problem z odczytem.  
      Artykuł pochodzi z naszego nieaktywnego już bloga.
  • Ostatnie tematy

×