Re: lug-bg: Mem usage Linux&Windows
- Subject: Re: lug-bg: Mem usage Linux&Windows
- From: danchev@xxxxxxxxx (George Danchev)
- Date: Fri, 7 Feb 2003 21:30:25 +0200
On 07 02 2003 20:02, Valentin Tzankov wrote:
> Linux-a systo swap-wa idle processi
kwapd e kernel thread kojto osvobozhdava fizi4eska pamet kogato e
fragmentirana ili izcqlo zaeta ... (tova naj-osto , shemata e mnogo mnogo
slozhna i ne vqrvamda q razberesh ot sources ... ;-)
>no e s mnogo malki segmenti, pone v
> kernel-a sa zalojeni 8,16,32K blokove,
q predi da pishesh izsmukano ot prystite si se osvedomi za tova kakvo e swap
I/O in clusters, swap_cluster, kswapd i t.n. ot kernel sources v mm/ i
Documentation/sysctl/vm.txt ...
> i taka Linux ne moje da izpolzva spored men dobre bandwidth na HDD(
> 35-45 MB/sec),
kak e polu4i tazi I/O stojnost ? za kakvi diskovi kontroleri?
az nabludavam 10 pyti po-golqma ...
btw, 2.4.0 imashe mnogo losh vm (swap) problem, no e prenapraven mnogo mnogo
otdavna...
> az znam che ima mnogo prichini tova da e taka i ne smjatam che e
> nedostatyk, no ot druga strana MS javno swapvat-a na ogromni segmeni,
> mnogo mi e interesno kak go pravjat spored men te vinagi sa imali
> problemi s fragmentatziata,
> a swap-a im ochevidno raboti mnogo dobre.
izvinqvaj 4e taka ti go kazvam, ama o4evidno ti mnogo ne si naqsno s ponqtiqta
i az neznam zasto vyobste ti otgovarqm;-)... Ne vizhdam zasto se pravish na
interesen zasqgajki i obqsnqwajki temi ot kojto i ideq nqmash... i
popadash vse na takiva kydeto Linux e obezkurazhavasto dobyr ... Kazhi 4e
Linux vse oste ne e tolko scalable na hppa architecture taka kakto hp-ux e
(hello velin) ... i ste se vpe4atlq ... kvi vindovsi za shirpotreba na evtini
x86-ci davash za primer tuka ...
--
Greets,
fr33zb1
============================================================================
A mail-list of Linux Users Group - Bulgaria (bulgarian linuxers).
http://www.linux-bulgaria.org - Hosted by Internet Group Ltd. - Stara Zagora
To unsubscribe: http://www.linux-bulgaria.org/public/mail_list.html
============================================================================
|