Skocz do zawartości

SeNioR

Administrator
  • Posty

    14935
  • Rejestracja

  • Ostatnia wizyta

  • Wygranych

    195
  • Czas online

    331d 2h 46m 10s

Ostatnia wygrana SeNioR w Rankingu w dniu 21 Maj

SeNioR posiada najczęściej lubianą zawartość!

Reputacja

4120 Fenomenalna

Obserwuje 2 użytkowników

O SeNioR

  • Tytuł
    Founder and CEO
  • Urodziny 20 Maj

Dodatkowe informacje

  • Imię
    Sebastian
  • Lokalizacja
    Warszawa
  • Zawód
    Informatyk
  • Hobby
    Kino - Kosmos - Tworzenie stron internetowych - Dobra muzyka - Podróże - Pozycjonowanie SEO
  • Płeć
    Mężczyzna
  • Program graficzny
    Photoshop
    IrfanView
  • Edytor tekstu
    Notepad++
  • Skrypt CMS
    WordPress i Invision Power Board

Kontakt

Ostatnie wizyty

50265 wyświetleń profilu
  1. Z dobrą prezentacją i podejściem do klienta + Twoimi kwalifikacjami, własną stroną internetową - firmową czy portfolio i opiniami zadowolonych klientów to możesz i brać 1500 zł.. wpływ na cenę ma dosłownie wszystko bo wszystko się wylicza. Jeżeli mówimy tutaj o typowym zleceniu dla internetowego kolegi to od 50 do 100 zł za zainstalowanie WordPressa i wgranie szablonu to rozsądna cena.
  2. Środki do swojego konta PayPal można dodać jednie za pomocą przelewu bankowego. Więcej informacji: Artykuł pomocy
  3. Jak ktoś ma dobre umiejętności to nawet zwykłym ołówkiem z dobrym cieniowaniem potrafi narysować cudo. Metod jest pełno zależy jak komu pasuje. Można najpierw naszkicować na zwykłej kartce a później przenieść do Photoshopa. Można to robić na PC jak i na tablecie graficznym czy nawet na iPadzie bo tam większość tabletów jest kompatybilna z programami graficznymi. Zawodowcy pracują na: Wacom Intuos i Surface Pro 3 A najlepsze programy to: Photoshop Keyshot ZBrush Sketchup Maya Cinema 4D Teksturami można się posiłkować tu: Textures for 3D, graphic design and Photoshop!
  4. 1. Wyłącz Photoshopa. 2. Wejdź do Edytora rejestru (regedit) 3. Po lewej stronie rozwiń kolejno HKEY_CURRENT_USER Software Adobe Photoshop 120.0 4. Jeżeli w folderze 120.0 na liście nie masz OverridePhysicalMemoryMB musisz utworzyć nową wartość DWORD - czyli prawy przycisk myszy na pustym polu, Nowy Wartość DWORD (32-bitowa) 5. Następnie edytuj nową wartość (podwójne kliknięcie w nową pozycję). W nazwie wpisz OverridePhysicalMemoryMB, w polu Dane wartości wpisz 4096, kliknij OK i włącz Photoshopa.
  5. @in good sooth Gorzej to potwór z Loch Ness
  6. Masz na myśli akapit dodawany w nowej linii? Aby uniknąć odstępu możesz to zrobić poprzez ustawienia edytora Wygląd Edytor Ustawienia Działanie klawisza Enter Przejdź do następnego wiersza.
  7. @Lukazuki ❤ W większości sytuacji plik robots.txt jest zbędny w IPS 4. Wiele rzeczy można wyłączyć dla gości przez co parametr do= staje się niewidoczny.. Nie radzę kopiować cudzych plików robots.txt. Aby uniknąć ostrzeżeń o braku tego pliku można dodać standardową regułę. Ale jak ktoś nie ma pojęcia jak posługiwać się tym plikiem to nie powinien nic dodawać od siebie. Bo trzeba wiedzieć jak skrypt IPS zareaguje, co zostanie zaindeksowane a co nie i co jest już blokowane automatycznie w skrypcie. Należy też pamiętać o tym że nie można blokować np. katalogu w robots i jednocześnie używać meta tagu robots bo robots.txt nie będzie pozwalał botowi na dostęp więc bot nie będzie w stanie zobaczyć meta tagu robots więc nie wyindeksuje strony. Parametr utm dotyczy kampanii w Google Analytics. Jest on zbędny, ja go dodałem jako przykład. Można stworzyć sobie taką kampanię Kampanie niestandardowe - Analytics - Pomoc i monitorować ruch np. z przekierowania jednej domeny na drugą. W moim przypadku Google zaczęło indeksować nową domenę z tym właśnie parametrem na końcu bo poprzednia domena miała wiele podstron nie należących do IPS a przekierowanie było na zasadzie 301 gdzie roboty informowane są że stara zawartość z domeny A została przeniesiona trwale pod nową domenę B. Na twoim miejscu usunąłbym wszystkie te parametry czy ciągi znaków jak zwał tak zwał.. W IPS 4.3 jest to rozwiązane za pomocą meta tagów noindex. Sam miałem podobne przekonanie i też blokowałem to przez kilka miesięcy bo Google indeksowało niechciane podstrony ale trzeba zaznaczyć że robots.txt blokuje jedynie dostęp a strona i tak zostanie zaindeksowana. Wynik był raczej odwrotny do zamierzonego. Te podstrony wcale nie obniżają rankingu a nawet pomagają. Gdyby tak było to IPS dodało by domyślnie plik robots.txt w paczce. Przykładowo blokujesz /index.php?* a jeżeli ktoś nie będzie miał włączonych przyjaznych linków to w ten sposób zablokuje dostęp do wszystkich podstron! Więc to nie jest dobra praktyka pod SEO. W IPS 4.3 parametry takie jak do=* app=* do=follow* do=embed* do=add do=email są usuwane z indeksu za pomocą meta tagu robots. Natomiast parametry takie jak poniżej przekierowują do prawidłowego odnośnika więc nie ma sensu ich blokować w robots.txt czy próbować je wyindeksować do=getNewComment do=getLastComment do=findComment* do=reportComment* sortby=* Nie ma sensu blokowania katalogów bo i tak one nie są indeksowane. Roboty nie będą miały do nich dostępu i będą otrzymywały kod odpowiedzi 403 czyli brak dostępu. Dzięki plikowi robots.txt pokazujesz tylko jakie foldery posiadasz i przez to potencjalny haker będzie miał ułatwione zadanie bo będzie miał pełną listę twoich katalogów.. a zwłaszcza katalog admin gdzie dla bezpieczeństwa zmienia się jego nazwę a później ktoś doda go i tak w robots.txt Katalog ten nie ma żadnego odnośnika więc Google na niego nie trafi i go nie zaindeksuje a nawet jakby tak było to tak jak wspomniałem wyżej otrzyma odpowiedź 403. Ty tutaj blokujesz dostęp do rejestracji i logowania ale po co? W czym to przeszkadza? Na forach wielotematycznych blokowanie takich katalogów to absurd bo powinny one znajdować się w indeksie aby ułatwić rejestrację czy logowanie.
  8. Link @CzareK co prawda rozjaśnia sprawę ale nie do końca więc postaram się napisać mini poradnik. Konwersję najlepiej wykonywać na localhoście czyli na naszym komputerze używając do tego np. XAMPP. Jednak dotyczy to tylko większych baz danych gdzie mogą wystąpić problemy z przekroczeniem limitu czasu odpowiedzi serwera lub inne nieoczekiwane sytuacje. Przy bazach danych do 100 MB konwersja powinna przebiegnąć w miarę szybko i sprawnie, od kilku do kilkudziesięciu minut. W przypadku większych baz danych np. 500 MB czy 1GB może to zająć nawet kilka godzin. Przed wykonaniem poniższych czynności zrób obowiązkowo kopię bazy danych. 1. Przygotowanie phpBB2: a). Synchronizacja Panel Administracyjny Użytkownicy Synchronizacja użytkowników, Panel Administracyjny Fora Synchronizacja, Panel Administracyjny Załączniki Synchronizuj załączniki. b). Optymalizacja bazy danych Panel Administracyjny SQL Optymalizacja SQL Zaznacz wszystkie Optymalizuj. c). Wykonaj zapytanie do bazy danych aby zmienić format daty na taki jaki używa się w phpBB3: ALTER TABLE phpbb_users ADD user_dateformat varchar (60) default '|j M Y|, \o H:i' not null; tutaj należy pamiętać aby zmienić swój prefix do bazy danych, w zapytaniu jest domyślny prefix phpbb_ d). Ostatni krok to wyłączenie forum: Panel Administracyjny Ogólne Konfiguracja Główne Wyłącz forum. 2. Przygotowanie phpBB3: a). Pobierz najnowszą paczkę phpBB3 ze oficjalnej strony phpBB.com wraz z polską paczką językową. b). Wypakuj i wrzuć folder phpBB3 na serwer do głównego katalogu forum np. (public_html/phpBB3/) c). Skopiuj katalogi files (załączniki) oraz images (obrazki) z głównego katalogu forum do katalogu phpBB3 d). Zainstaluj forum phpBB3 e). Użyj wbudowanego konwertera f). Skonwertuj.
  9. Trutka w formie takiego czerwonego granulatu lub zainwestować w pułapkę na gryzonie.
  10. Do wpisu musisz jeszcze dodać dyrektywę. # Every bot User-agent: * na # Every bot User-agent: * Disallow: Może to być trochę mylące bo Disallow oznacza zakaz indeksowania ale nie określiliśmy tutaj ścieżki czyli znaku ukośnika / i zostawiliśmy tutaj puste pole więc nie ma żadnych zasad i limitów a co za tym idzie wszystko będzie indeksowane. Powołując się na tą specyfikację: Co można przetłumaczyć jako "Każda pusta wartość, wskazuje że każde adresy URL będzie można pobrać". Tak więc zastosowanie User-agent: * Disallow: to to samo co User-agent: * Allow: / Jednak przekonanie jest takie że roboty lepiej rozumieją pustą dyrektywę Disallow: więc ją się też stosuje.
  11. @damson To wbudowana funkcja w IPS. Co prawda służy bardziej do wyświetlania regulaminu działu, ale ja to wykorzystałem jako wzór. Przy tworzeniu działu w Ustawienia wyświetlania Pokazywać regulamin, możesz wprowadzić swoją dowolną treść lub link.
  12. Mapa strony w Invision Community Suite generowana jest automatycznie w pliku sitemap.php, auduty mają to do siebie że szukają na serwerze pliku sitemap.xml bo pierwotnie tam powinna być mapa strony. Więc nie przejmuj się informacją o braku pliku sitemap.xml. Mapa strony może być pod dowolną nazwą i nawet w rozszerzeniu JS tylko ważne jest to aby plik miał kodowanie XML. Więcej o mapie strony możesz przeczytać tutaj: https://www.sitemaps.org/pl/index.html Natomiast co do braku pliku robots.txt napisałem poradnik specjalnie dla ciebie: Robots.txt. Co to jest, jak go używać i do czego służy - Pecetowicz na samym dole dodałem przykładowy kod robots.txt dla IPS, który używam obecnie na Pecetowiczu.
  13. Robots.txt to plik tekstowy, umieszczany w głównym katalogu (public_html) naszego serwisu. W pliku robots.txt w większości przypadków umieszcza się link do mapy strony i informuje wszystkie lub wybrane boty takie jak np. Google, Bing czy Yahoo o tym że mogą wykonać określone działanie na stronie. Warto wspomnieć na początku że zablokowanie dostępu robotom nie usuwanie (wyindeksuje) naszej strony z indeksu wyszukiwarki. Aby skutecznie wyindeksować strony należy zastosować meta tag robots który umieszczamy w sekcji <head>: <meta name="robots" content="noindex"> Aby przetestować działanie pliku robots.txt na dowolnych adresach URL najlepiej skorzystać z narzędzia Robots Testing Tool w Google Search Console. WPISY: User-agent: (Tutaj podajemy dokładną nazwę bota której ma dotyczyć dyrektywa) W przypadku wstawienia znaku * (gwiazdki) dyrektywa będzie dotyczyła wszystkich botów. Sitemap: (Podajemy pełny adres do naszej mapy strony) Informujemy robotów że tutaj znajduje się nasza mapa strony. Ułatwi im to szybsze zaindeksowanie stron. Crawl-delay: (dodajemy czas w sekundach np. 2) W ten sposób nakazujemy robotom by indeksowały strony nie szybciej niż co 2 sekundy. Pozwala to zaoszczędzić transfer i uniknąć przeciążenia serwera. KOMENTARZE: Aby dodać komentarz, tak aby plik był przejrzysty i wiadomo było co do czego służy dodajemy symbol kratki # #przykładowy komentarz DYREKTYWY: Disallow: (zakazujemy indeksowania) Allow: (pozwalamy na indeksowanie) Dokładne nazwy najpopularniejszych botów: Googlebot Bingbot Slurp DuckDuckBot Baiduspider YandexBot Domyślny plik robots.txt powinien wyglądać tak: User-agent: * Disallow: Informujemy w ten sposób wszystkie boty że mogą indeksować całą stronę (wszystkie katalogi, pliki, podstrony, rozszerzenia plików, itd). Aby zabronić indeksowania plik robots.txt wyglądać będzie następująco: User-agent: * Disallow: / Aby zabronić wyszukiwarce Google na indeksowanie określonego katalogu np. katalog z zdjęciami plik robots.txt powinien wyglądać tak: User-agent: Googlebot Disallow: /zdjecia/ Aby zabronić wyszukiwarce Yahoo na indeksowanie plików z określonym rozszerzeniem np. .jpg plik powinien wyglądać tak: User-agent: Slurp Disallow: /*.jpg$ Aby zezwolić wyszukiwarce Bing na indeksowanie tylko określonych katalogów i wybranego pojedynczego pliku, robots.txt powinien wyglądać tak: User-agent: BingBot Allow: /katalog1/ Allow: /katalog2/ Allow: /plik.html Aby poinformować i odesłać botów do naszej mapy strony dodajemy do pliku robots.txt następujący wpis (oczywiście adres zmieniamy na swój): Sitemap: http://www.twojanazwa.pl/sitemap.php Przykładowy plik robots.txt przystosowany pod skrypt Invision Community Suite 4: # the protocol of the sitemap. Sitemap: https://www.pecetowicz.pl/sitemap.php # Wait 2 second between successive requests. See ONBOARD-2698 for details. crawl-delay: 2 # Every bot User-agent: * Disallow: /*utm_source$ Disallow: /api/ Disallow: /cgi-bin/ Disallow: /plugins/
  14. Również wypełniłem jako że grałem kilka razy w CS.
×