Path: news-archive.icm.edu.pl!pingwin.icm.edu.pl!mat.uni.torun.pl!news.man.torun.pl!n
ews.man.poznan.pl!news.internetia.pl!newsfeed.gazeta.pl!news.onet.pl!not-for-ma
il
From: "pt" <p...@p...invalid>
Newsgroups: pl.soc.inwalidzi
Subject: lamerzy
Date: 21 Oct 2002 1:32 +0200
Organization: Podziemie
Lines: 219
Sender: t...@p...onet.pl@serwer.transcom.pl
Message-ID: <3b7hfy$kb1$1@localhost>
References: <018201c27701$7f7fa6a0$02254cd5@gim4.bci.pl>
<3...@n...onet.pl> <aoute1$9e4$1@news.tpi.pl>
NNTP-Posting-Host: serwer.transcom.pl
Mime-Version: 1.0
Content-Type: multipart/alternative; boundary="ptd20021021013240779"
X-Trace: news.onet.pl 1035156678 5538 213.216.75.46 (20 Oct 2002 23:31:18 GMT)
X-Complaints-To: a...@o...pl
NNTP-Posting-Date: 20 Oct 2002 23:31:18 GMT
User-Agent: Pierwszy Polski WÄ
tkujÄ
cy Eksplorator NiusĂłw/5.00.01.224
Xref: news-archive.icm.edu.pl pl.soc.inwalidzi:26854
Ukryj nagłówki
Żenujące są wypowiedzi lamerów.
>A teraz utf-8. Cieszyłbym się nawet, gdyby z tego zrobiono standard
>ogólnoświatowy,
Jest drobny problem, to już stało się.
>pod jednym wszakże warunkiem: musiałbym mieć klawiaturę,
>która by mi to obsłużyła, do czego jest moim zdaniem klawiatura wirtualna,
>to nie chcę naruszać zasad przyzwoitego wysławiania się.
Ubzdurał sobie biedak potrzebę istnienia specjalnej klawiatury do Unikodu jak
wystarczy użyć standardowych układów klawiatur dostępnych nawet w archaicznej
linii Windows 9x.
>Gdybym jednak miał
>do dyspozycji klawiaturę z klawiszami francuskimi (akcenty) i niemieckimi
>(umlauty) albo łatwo można byłoby opanować generowanie znaków specjalnych z
>klawiatury us ascii to byłbym za.
A cóż to takiego ta klawiatura us-ascii ? Koń by się uśmiał !
>Mógłbym np. Wam zademonstrować (jako
>ciekawostkę) jak pisze się moje imię i nazwisko po arabsku, albo wykonać z
>tego samego powodu transkrypcję arabską nazwisk tych, którzy by sobie tego
>życzyli. To jednak tylko zabawne aspekty ewentualnego przyjęcia standardu
>utf-8.
Kodowanie utf-8 już dawno zostało przyjęte. Tylko w kręgach dyletantów lub snobów
dyskutuje się ciągle o ,,ewentualnym przyjęciu".
>Czytam teksty francuskie i żeby widzieć akcenty muszę przełączyć na
>kodowanie ISO 8859-1, w utf-8 takie salta nie byłyby potrzebne.
Och biedaku jaki ty głupi jesteś to aż głowa boli. Możliwość wyświetlenia takich
czy innych znaków na ekranie wynika z dostępności tych znaków w lokalnym
kodowaniu. Lokalnie używane kodowanie polskich znaków to zwykle Windows-1250 lub
Unikod a nie ISO-8859-2. Aby pokazać jakikolwiek dokument internetowy trzeba go
sprowadzić do tego lokalnego kodowania. Opublikowanym w internecie dokumentom
towarzyszy deklaracja kodowania umożliwiająca dokonanie automatycznej konwersji
przez oprogramowanie, więc aby ,,widzieć akcenty" nie trzeba niczego przełączać.
>Kwestia usenetu, to zupełnie inna bajka. Zauważcie, że tu panuje rodzaj
>feudalizmu. Szukaj sobie serwera, jak chcą to cię wpuszczą, userów się
>kategoryzuje
Że co ?! Pomijając serwery komercyjne, gdzie tylko od pieniędzy zależą możliwości
użytkownika, do przeciętnego serwera są wpuszczani użytkownicy danej sieci na
jednakowych prawach i nie są wpuszczani użytkownicy innych sieci z oczywistych
względów.
>a dla hołoty zostają gateway'e.
Syneeek, bramki dają możliwość innego często łatwiejszego korzystania z niusów i
nic ponadto. Dostawcy posiadający własny serwer niusów mają interes byś korzystał
z ich serwera niusów zamiast sprowadzać te dane zapychając drogie łącza do innych
sieci.
>Z tego też powodu narzucono
>zasady kodowania tekstów, bo tylko o przekazywaniu treści tekstowych może
>być mowa.
Nic bardziej błędnego. Niusy służą do przesyłania dowolnych treści. Teksty są
tylko najbardziej tradycyjnym. Na bazie niusów można np. zrealizować bardzo
skuteczną dystrybucję oprogramowania.
>Polskie znaki diakrytyczne
Jakie znowu polskie znaki diakrytyczne ? Znaki diakrytyczne to te znaczki nad czy
po literami łacińskimi używane na całym świecie.
>zostały dopuszczone do grup polskich
>przy zastosowaniu standardu kodowania wyłącznie 8859-2.
Kodowanie ISO-8859-2 było forsowane przez administratorów dlatego, że użytkownicy
byli uzależnieni od działalności serwerów uniwersyteckich używających właśnie
tego kodowania. Drugim powodem była łatwość skłonienia użytkowników do snobowania
się na odmienność internetu. Sam tego doświadczyłem, gdy przed laty zaczynałem
korzystać z internetu. Jak mnie cieszyło, że mogę być inny.
W istocie kodowanie to jest najgorszym z możliwych do wybrania. Nie obejmuje
wszystkich znaków polskich a wymaga dokonywania konwersji u większości
użytkowników. Już wtedy zdecydowanie lepszym było kodowanie Windows-1250. Oprócz
charakterystycznych znaków polskich obejmowało np. polski cudzysłów. No i było
powszechnie dostępne u użytkowników co ograniczałoby potrzebę konwersji tylko do
innych środowisk niż Windows.
Ale to takie rozważania bez sensu, bo o żadnym wyborze kodowania nie może być
mowy. Zasady publikacji w internecie są takie, że udostępnia się oryginalny
dokument owijając MIME. Jeśli użytkownik korzysta z platformy Windows z użyciem
stron kodowych to opublikowany dokument powinien być zakodowany w Windows-1250.
Tyle, że aktualnie produkowane oprogramowanie wykorzystuje Unikod dostępny w
Windows. W odróżnieniu od kodowań stronicowanych tj wymienione wcześniej
Windows-1250 czy ISO-8859-2, Unikod obejmuje wszystkie znaki używane na świecie,
czyli można je pokazać użytkownikowi jak by dokument nie był zakodowany.
>Nie tak dawno jeszcze publikowanie w usenecie tekstów z polskimi znakami
>diakrytycznymi, kodowanych na parę sposobów, że wspomnę tylko masovię, dhn i
>cóś tam jeszcze
Bzdury kompletne. O ile Mazowia była faktycznie szeroko używana w środowisku Dos,
gdy jeszcze nie oferował polskiego kodowania, ale też internet raczkował w
Polsce, o tyle dhn był tylko kodowaniem dla pewnego programu, który z internetem
nie miał nic wspólnego więc nie miał szansy znaleźć się w internecie.
>powodowało to, że serwery przerabiały to wszystko na
>wszelkiej maści dziwadła i efekt końcowy w postaci publikacji bywał żałosny.
Serwery, szczególnie niusów, niczego nie przerabiają. Dokumenty opakowane MIME
krążą niezmienione po świecie.
>Dzisiaj na np. listach e-mailowych, dotyczących Polski (np. listy
>genealogiczne na serwerach amerykańskich) ktoś kto próbuje zilustrować
>polskie litery zapisuje je w postaci: ł= l/, ś= s^ itp. łamańce...
Musi taki lamer jak Ty.
>Przyjdzie więc poczekać na coś bardziej uniwersalnego tak, jak to było
>dotychczas.
Buhahahaha. Unikod dawno stał się uniwersalnym kodowaniem. Aktualnie wszystkie
sensowne rozwiązania opierają się na nim. Tylko głupcy nadal opowiadają swoje
brednie.
>Narazie dyskusje o wyższości utf nad iso mieszczą się w kategoriach "o
>wyższości świąt Wielkanocy..."
Ta, szczególnie, że Utf jest jednym z kodowań ISO. Głupiś jak but z lewej nogi,
ot co.
|