[linux-ileri] Re: mail sunucu

---------

From: Ozan Eren Bilgen (mavi@gsu.linux.org.tr)
Date: Fri 20 Jun 2003 - 15:30:52 EEST

  • Next message: Seref Tufan Sen: "[linux-ileri] Re: named sorunu"

    Merhaba,

    Ben size direkt HeartBeat (www.linux-ha.org) adresini oneririm.
    HeartBeat, istediginiz High-Availability (Yuksek Erisilebilirlik)
    cozumlerinden GNU lisansli ilk cikan yazilimdir ve OCF'de (Open Cluster
    Framework) onemli bir yere sahiptir. Gayet kapsamli, basarili ve
    performansli oldugunu sahsen soyleyebilirim.

    Alternatif olarak Kimberlite da
    http://oss.missioncriticallinux.com/projects/kimberlite/ kendini
    ispatlamis bir GNU cozumdur ancak MCL'nin ucretli cozumunun kirpilmis
    versiyonudur.

    Benim bildiklerim: HeartBeat, Kimberlite, OSCAR, Amata, IBM DLM, HP SSI
    ve The Linux Fail Safe Project.

    Sitesinde EnderUNIX'in hazirladigi bir Turkce dokuman da var.

    On Fri, 2003-06-20 at 15:16, Murat Koc wrote:
    >
    > Selam,
    >
    > > Yapmak istediginiz pek mantikli degil.
    > >
    >
    > aslinda mantikli.

    ve de ciddi sunucular icin zaruri bir olay.
    >
    > > Ama soyle birsey yapilabilir.
    > > Round robin dns gibi birseyle istekler iki makinaya bolunebilir. Her iki
    > > makinadada ayni kullanici hesaplari acilir veya baska bir ldap server
    > > vasitasi ile kullanici yetkilendirilmesi yapilabilir.
    > >
    >
    > bu sistem icin 3 tane makina gerekir. 1 tane load balancer makina olur
    > ve bu makina sayesinde gelen istekleri makinalarin guclerine gore veya
    > bironabirbuna seklinde veya yuzde olarak yonlendirirsiniz. Bunun icin
    > cesitli algoritmalardan birini kullanabilirsiniz.
    >
    > Ek olarak load-balancer makina uzerinden arkadaki makinlarinizi surekli
    > olarak gozetleyerek, birinin down olmasi durumunda ona istek
    > gondermesini kesebilir ve tekrar up olmasi durumunda yeniden sisteme
    > katabilirsiniz.
    >
    > Bunun avantaji ise arkadaki makinalar arasinda heartbeat e gerek kalmaz
    > ve ip degisimi islemi ile ugrasilmaz. IP atamasi ile ugrasmadan diger
    > tek merkezden kontrol edebilirsiniz.
    >

    IP Address Takeover tek cozum degildir. MAC Address Takeover vardir,
    burada MAC adresleri alinir ve en hizlisidir. Ayrica Dynamic DNS
    Reconfiguration vardir ama bu biraz yavas calisir. Eger NIC
    kullaniyorsaniz, ki uzerinde 8 MAC'a kadar destekler bunlar (cilgin
    oyuncaklardir), MAC Address Takeover ile fisi cekseniz bile
    farkedemezsiniz ;)

    > Benzer sekilde load-balancer lari failover yapabilirsiniz. Bu durumda
    > ancak heartbeat e ihtiyac duyarsiniz.
    >

    Cok guzel, ustteki load balancer'i HA yapmazsaniz clustr biraz allahlik
    olmaz mi? :)
     
    > Arkadaki iki mail server i ise identical olarak konfigurasyonunu
    > yaparsiniz.
    >

    Bu sadece isleri biraz kolaylastiracak bir sey ama bir mecburiyet degil.
    Yani RedHat uzerinde Apache olsun, Mandrake uzerinde baska bir web
    server, yine de takir takir calisir.

    Ayrica Sayin KOC'un cozumunu biraz tuzlu buluyorum. 1 mail server icin
    1 Load Balancer, 1 veri deposu 1er de yedekleri, etti 6 makina. Web,
    DNS derken bir makina tarlasi ve gokdelen falan gerekir bunu
    gerceklestirmek icin :) Olceklenebilirlik, benim ilk kez IBM Turk'te
    kendisinden duydugum bir kelimeydi ancak burada atlanmis sanirim...

    > > Burada kritik durum mailboxlarin iki makinadada senkron olmasinin nasil
    > > saglanacagidir. Bunun icin ise ayri bir storage server ornegin isinizi
    > > gorebilir. Maili hangi makina almis olursa olsun her iki makina icinde
    > > ortak olan bir depolama birimine yazar ise sorun kalmaz.
    > > Bilgisayar bagimsiz raid cihazlari piyasada cokca bulunmaktadir.
    > >
    >
    > Burasi yukardakinden daha karmasiktir. Ayri storage serveriniz olsa dahi
    > filesystemleri sync tutmak icin storage server uzerinde kuracaginiz file
    > system ditributed olmalidir. NFS bir cozumdur ama yeterli degildir.
    > distributed nfs bir cozumdur ama yeterli degildir. Bundan dolayi coda,
    > intermezzo, GFS (Global File System) cozumdur ama ucretlidir, GPFS
    > (General Parallel File System) cozumdur ama paralidir, PVFS gibi file
    > systemler kullanmaniz gerekmektedir.
    >

    DRBD (Distributed Replicated Block Device) var. O da kalitelidir.
    Sonra NBD (Network Block Device) da oturmus sistemler. Yanilmiyorsam,
    cok buyuk bir ihtimalle bunlar GNU lisansli. Tabi LVM (Logical Volume
    Manager) da unutulmamali.

    Bunlarla kurarsaniz, 3. makinaya ihtiyac kalmayacaktir. Yoksa gercekten
    ama gercekten isiniz var. 6 makina'nin bakimi, guvenligi,
    guncellenmesi: Sayin KOC'un cozumu kesinlikle olceklenemez bir cozum.

    NFS'se en ama en olmayacak cozumdur! NFS, pesinde pek cok problemle
    gelir ve HA sistemlerde NFS kullanmak veri kaybina yol acar. Cunku
    burada bilgisayarlarin suurlarini kaybettiklerini durumdan bahsediyoruz
    ve bu yuzden senkronizasyon NFS duzeyinde tutulamaz.

    Bilahare, NFS zaten kendi icinde sakatliklar arzeder: NFS bir sistemde
    mesela open ()'i appendle kullanamazsiniz. Konuyla ilgili man 2 open
    yazarsaniz, (ingilizce kusura bakmayin) "O_EXCL is broken on NFS file
    systems, programs which rely on it for performing locking tasks will
    contain a race condition." ve "O_APPEND may lead to corrupted files on
    NFS file systems if more than one process appends data to a file at
    once. This is because NFS does not support appending to a file, so the
    client kernel has to simulate it, which can’t be done without a race
    condition." gibi iki siddetli toktok goreceksiniz. HA sistemlerde race
    condition'a (iki sistemin de -yanlislikla- ayni anda ayni isi yapmak
    istemesi, ornegin ayni disk bolgesine double mount) karsi onlemleri
    temel secim kriterlerindendir. Bkz: Linux-HA STONITH (Shut the other
    node in the head)

    NFS'i kullanMAmanizi siddetle oneririm.

    > Bu sekilde bir sistem ile node ihtiyaciniz oldugu zaman rahatlikla
    > ekleyebilirsiniz veya cikartabilirsiniz.
    >

    Hayir, bunlar ilgisizdir. Node eklemek ile filesystem'in ilgisi
    yoktur. Demek istedigim, 2. dugum icin zaten DRBD kurduktan sonra, 3.
    dugumu eklemekle 13. dugumu eklemek HA cozumunun becerisiyle ilgilidir.
    HeartBeat 100, Kimberlite 64 cluster'a kadar destekliyor.

    > Bunlarin benim kullandiklarimdan GPFS ve GFS en iyileridir ve bunlari
    > kullanmanizi tavsiye ederim.
    >
    >
    > > Tabi burada bir baska kritik konu sudur. Bir serverin kaldiramayacagi
    > > kadar cok yogunluk olacagindan eminmisiniz. Eger onumuz yogunluk degilde
    > > yedekleme ihtiyaci ise cluster sistemlerine yonelebilirsiniz.
    > >
    >
    > Eger boyle bir high-availability, failover turu bir sisteme ihtiyac
    > duyuyorsaniz bir miktar parayi gozden cikarmaniz gerekecektir ve bu tur
    > bir sistemin kurulmasi (yukarda anlattigim sekilde) uzmanlik isteyen bir
    > konudur ozellikle production da kullanacaksaniz deneyiminizin olmasi
    > sarttir.
    >
    > Yoksa cok basiniz agriyabilir.
    >

    HeartBeat ucretsiz olarak www.linux-ha.org/download adresinden
    indirilebilir. Eger donanimsal HA ariyorsaniz, evet 100000$lar'dan
    baslar ama milisaniyelik performans olarak ileridedir.

    Hatta hatta, okumayi seven biriyseniz :) bu benim bitirme odevimdi, size
    "biraz" kaynak onerebilirim:

    [1] Linux-HA, « High Availability Linux Project »,
    http://www.linux-ha.org/, (2003),
    [2] IBM, « Distributed Lock Manager »,
    http://oss.software.ibm.com/developerworks/projects/dlm/
    [3] OSCAR, « Open Source Cluster Application Resources »,
    http://www.openclustergroup.org/
    [4] Burke, T., « High-Availability Cluster Checklist », Linux Journal,
    80, (2000),
    [5] Cook, F., « Linux High-Availability Working Group », Linux Weekly
    News OLS, Feature Article,
    http://lwn.net/2001/features/OLS/linuxha.php3, (2001).
    [6] High-Availability Linux Project Members, « Linux-HA Mailing List
    Archives », http://marc.theaimsgroup.com/?l=linux-ha&r=1&w=2
    [7] High-Availability Linux Project Members, « Linux-HA Mailing List
    Archives »,
    http://lists.community.tummy.com/pipermail/linux-ha-dev/
    [8] Pfister, Gregory F., In Search of Clusters, 2nd Edition, Prentice
    Hall PTR, New York, (1998).
    [9] Preslan, K., et al., « Scalability and Failure Recovery in a Linux
    Cluster File System », 4th Annual Linux Showcase and Conference,
    Atlanta, (2000).
    [10] Robertson, A., « Linux-HA Heartbeat System Design », 4th Annual
    Linux Showcase and Conference, Atlanta, (2000)
    [11] Robertson, A., « Linux-HA APIs », LinuxWorld Conference and Expo,
    New York, (2001)
    http://linux-ha.org/heartbeat/LWCE-NYC-2001/index.html
    [12] SGI, Inc., « The Linux Fail Safe Project »,
    http://oss.sgi.com/projects/failsafe/
    [13] Milz, Harald, « The Linux High Availability HOWTO ».
    http://metalab.unc.edu/pub/linux/ALPHA/linux-ha/High-Availability-HOWTO.html
    [14] Sportack, M. A., Windows NT Clustering Blueprints, SAMS
    Publishing, Indianapolis, (1997),
    [...]
    [17] Microsoft, « Solution Spotlight : Keep Critical Applications
    Available With Cluster Service », Windows 2000 Advanced Server,
    www.microsoft.com/windows2000/advancedserver/
    evaluation/business/cluster.asp,
    (2000),
    [18] Microsoft, « Windows 2000 Technical Ressources - How It Works »,
    Introducing Windows 2000 Clustering Technologies,
    www.microsoft.com/windows2000/techinfo/howitworks/cluster/introcluster.asp, (2000)
    [...]
    [20] Tweedie, S. C., « Quorum Operations »,
    http://linux-ha.org/PhaseII/WhitePapers/sct/quorum.txt
    [21] Sistina Software, « The Logical Volume Manager (LVM) »,
    http://www.sistina.com/products_lvm.htm, (2003)
    [...]
    [23] Mission Critical Linux, « About Kimberlite »,
    http://oss.missioncriticallinux.com/projects/kimberlite/, (2003)
    [24] « Fiber Distributed Data Interface (FDDI) »,
    http://www.iol.unh.edu/training/fddi/htmls/, (2003)
    [...]
    [26] CMU, Department of SCS, « What is Coda? »,
    http://www.coda.cs.cmu.edu/, (2003)
    [...]
    [29] « What Is SCSI? And Why Choose it for Your Peripheral Connection?
    »,
    http://www.adaptec.com/worldwide/product/markeditorial.html?prodkey=what_is_scsi
    [30] Reisner, P., « DRBD : Distributed Replicated Block Device »,
    http://www.complang.tuwien.ac.at/reisner/drbd/, (2000)
    [...]
    [32] Breuer, P. T., « The Enhanced Network Block Device Linux Kernel
    Module », http://www.it.uc3m.es/~ptb/nbd/, (2003).
    [33] IBM, « IBM e-Server Configurators »,
    http://www.pc.ibm.com/europe/configurators/, (2003).
    [34] Byard, L. F., « How to Make Your Own Network Cables - Network Cable
    Color Code Standards », DUX Computer Digest,
    http://www.duxcw.com/digest/Howto/network/cable/cable5.htm, (2002)
    [35] DEFCON 1, « Making a Cat 5 Cross Over Cable »,
    http://www.defcon1.org/html/Networking_Articles/Cat-5/Cross-Over/cross-over.html, (2000)
    [...]

    Calismalarinizda basarilar dilerim,

    Ozan Eren Bilgen <mavi@gsu.linux.org.tr>
    GSULinuX - Galatasaray Universitesi Linux Kullanicilari Grubu

    > --
    > -----------------------------------------------------------------------------
    > Murat Koc mail:murat.koc@frontsite.com.tr
    > Manager and IT Consultant
    >
    > frontsite Bilgi Teknolojisi A.S. tel: +90 212 356 16 33(pbx)
    > fax: +90 212 356 16 36
    > -----------------------------------------------------------------------------
    >
    >
    >
    >

    -- 
    

  • Next message: Seref Tufan Sen: "[linux-ileri] Re: named sorunu"

    ---------

    Bu arsiv hypermail 2.1.6 tarafindan uretilmistir.