> Re: Warum? > [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=5] > (Score:0) > von Anonymer Feigling am Tue. 21. February 06, 9:42 MEW > Mit an Sicherheit grenzender Wahrscheinlich nutzt(e) das TV ein Overlay, d.h. > arbeitet voellig autonom von der CPU. Internet-Radio braucht sehr wenig CPU. > Selbst mit MP3 kommt da ein Pentium 133 nicht in Verlegenheit. Und > Kompilieren tut die Zielgruppe doch sowieso nicht, oder? > Ich habe BeOS nie genutzt, aber das einzige an was ich mich erinnere sind ein > paar Features der Oberflaeche (ich glaube Fenster lassen sich beliebig > rotieren) und die gute Multimedia-Performanz (mehrere Videos gleichzeitig > abspielen). Wenn das wirklich alles ist, dann ist das eher duerftig. Es sind > im Wesentlichen wohl auch nur Scheduler-Tricks die sicherlich anderswo > nachteilig wirken koennen. > AFAIK ist BeOS nicht multi-user-tauglich und das ist heutzutage dann schon > ein recht heftiges Manko. Microsoft hat 20 Jahre gebraucht um Unix zu > begreifen und fertig sind sie immer noch nicht. Dass das bei BeOS oder einem > Nachfolger schneller gehen sollte, ist zu bezweifeln. ###### Re: Warum? [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cpid=8] (Score:2) von dino (neil@franklin.ch.remove) am Thu. 23. February 06, 10:13 MEW (User #32 Info) http://neil.franklin.ch/ > Kompilieren tut die Zielgruppe doch sowieso nicht Ersetze kompilieren durch irgendeine andere dir genehme Aufgabe die einfach alle Hintergrund CPU Zyklen aufbraucht, z.B. grosser Druckjob, Simulation in Tabellenkalkulation, Filmchen Rendern... Ansonsten war die BeOS Zielgruppe der generische Desktop User, da hat es einige CPU Fresser darunter. > Ich habe BeOS nie genutzt Keine praktische Erfahrung, aber eine feste Meinung reicht auch ... > die gute Multimedia-Performanz (mehrere Videos gleichzeitig abspielen) Was sehr schwierig bis unmoeglich ist unter Unixoiden Systeme. Und erst recht damals vor mehreren Jahren, auf sub-GHz Rechnern. > Es sind im Wesentlichen wohl auch nur Scheduler-Tricks die sicherlich > anderswo nachteilig wirken koennen Nein. Es waren vor allen Architektur Unterschiede, z.B. dass Videoausgabe nicht durch einen CPU fressenden Bruch wie X hindurch musste. Das kann man egal wie geschedulet nicht auf Speed raufbringen. > AFAIK ist BeOS nicht multi-user-tauglich und das ist heutzutage dann schon > ein recht heftiges Manko Ich wuerd mal drauf tippen, dass ueber 90% aller User noch nie ihren PC Multiuser betrieben haben. Wenn man remote-Zugriff (2. Login, aber ueblicherweise der selbige User) abzieht, dann ist das wohl sogar einiges ueber 95%. Duerfte also erst beim Server bauen ein Problem sein. > Microsoft hat 20 Jahre gebraucht um Unix zu begreifen MS und Apple haben 20 Jahre gebraucht um vom Unix Hype vergiftet zu werden, und dann erst noch die ineffiziente Microkernel Ausgabe davon. Apple hatte sogar die Entscheidung Be oder NeXT aufzukaufen, und der Be Besitzer (uebrigens ex Apple Manager) hat bei den Preisverhandlungen zu hoch gepokert, leider. Ich bin jedenfalls froh, dass jemand dabei ist eine Alternative zu Unix anzubieten. P.S. Ich hab frueher auch den Hype geglaubt, und hab damals einen NeXT (= Mac OS X 2.x und 3.x :-)) gehabt. > Dass das bei BeOS oder einem Nachfolger schneller gehen sollte, ist zu > bezweifeln. Die Firma Be ist ja auch daran untergegangen. Heute reden wir von einem BeOS kompatiblem Open Source Clone. Und solche muessen ja keinen Profit zeigen und koennen sich damit lange Zeiten erlauben. Ohne das waeren Linux oder *BSD auch nie angekommen. Linux ertrage ich weil es Open Source ist, nicht weil es Unix ist. Vielleicht ist Haiku genau das was ich suche. Werd mir das Teil mal ansehen muessen. Das Original hab ich ausgelassen, weil ich an 100% Open Source glaube, und nicht an Bezahlsoftware. ###### > Re: Warum? > [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=9] > (Score:0) > von Anonymer Feigling am Thu. 23. February 06, 20:00 MEW > BeOS hat Multi-Tasking nicht erfunden. Das flutschte spaetestens seit OS/2 > auf dem Desktop. Und ja ich kann schon lange nebenbei kompilieren und Videos > gucken. nice ist dein Freund. Es mag da durchaus Unterschiede bei Treibern > und Schedulern verschiedener Systeme geben, aber nichts dramatisches. Wie > Unix die Multimedia-Performanz drueckt verstehst wohl nur du allein. Es gibt > Echtzeit-Unix-Systeme, falls es dir entgangen sein sollte. > Warum schreibe ich wohl "habe ich nie genutzt"??! Dein polemisches "aber eine > feste Meinung haben" kannst du dir sonstwo hinschmieren. Ja, eine Meinung > habe ich sehr wohl. Sonst haette ich nichts zum Schreiben gehabt. Ich habe > meinen Eindruck beschrieben. Ist das so schwer fuer dich zu raffen? > Ob und wie fest meine Meinung ist, hast du nicht zu entscheiden. > "CPU-fressendes X"? Ich lach mich weg. Du hast wirklich keinen Schimmer von > X11. Der Vergleich war sowieso damals Windows. Linux war erst im Kommen, noch > nicht Mainstream. H264 und Konsorten flutschen hier unter X11 uebrigens > besser als auf so manchem Windows und das mit weniger CPU als dort. Also > erzaehl du mir nicht irgendetwas ueber Video-Performanz. Nein ich habe keine > Heizung als PC. MPEG-1 Videos liefen schon auf meinem 486er fluessig durch > XVideo. Mal ganz davon abgesehen, was will mich mit mehreren Videostreams > gleichzeitig? Fuer Otto-Normal ist das voellig uninteressant. > Zum Thema Multiuser: Ja bitte, dann mach doch weiter alles als "Admin" wie > unter Winschrott 95. Danke fuer den ganzen Spam auch, liebe Dumpfbacken. > Schade, dass die Spammer eure Maschinen selbst gebrauchen koennen, sonst > wuerden Viren wohl wenigstens eure Daten vernichten. Auch geil, wenn sich > deine Alte oder deine Blagen nen Virus einfangen und dann deine Daten weg > sind. Von produktiver Nutzung fang ich erst gar nicht an. Wahrscheinlich > findest du es wirklich cool fuer jeden Zweck ein anderes OS zu nutzen. > Wenigstens gibst du zu, dass du Unix-Hasser bist. Leute wie du duerften > eigentlich nur Zugriff auf Spezialgeraete haben, die genau einem Zweck > dienen. Multi-Purpose-Geraete wie PCs (ja und auch Macs) sollten fuer euch > Merkbefreite verboten sein. > Tja, wenn irgendetwas an BeOS wirklich brauchbar gewesen waere, haetten Apple > und MS es wohl "geklaut". Scheint mir nicht der Fall gewesen zu sein. > Wir reden aber nicht von vor 10 Jahren, sondern heute. DVDs, MPEG-4, MP3, AAC > etc. pp laeuft doch unter Linux, BSD, selbst Windows einwandfrei. Wie gesagt, > zwei DVDs gleichzeitig ansehen tun ich mir nicht, waere aber auch kein > Problem. Also welche Vorteile soll denn BeOS oder Haiku dann sonst haben? Du > bist ja offensichtlich nicht in der Lage welche zu nennen. Da muss ich wohl > bei meiner festen Meinung bleiben. Schade. ###### Re: Warum? [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=10] > BeOS hat Multi-Tasking nicht erfunden Kannst du aufzeigen, wo ich das angeblich behauptet haben soll? Oder tust du einfach mir gefaelschte Aussagen unterjubeln versuchen, in der Hoffnung ich uebersehe sie? Oder hast du nur sehr unaufmerksam gelesen? Und dass Multitasking und Multiuser spaetestens anfangs 1960er von den CTSS Leuten auf ihrer PDP-1 erfunden wurde weiss ich. Schliesslich hab ich selber Multiuser schon 1985 auf einer Pr1me 750 kennengelernt (ein 6 Doppelmonitor Arbeitplaetze CAD System). Und kapiert das es gegenueber einem Singleuser Z80/4Mhz PC in einigen Hinsichten unterlegen ist. > Unterschiede bei Treibern und Schedulern verschiedener Systeme geben, aber > nichts dramatisches Wegen eben diesem "nichts dramatisches" braucht Mac OS X ja auch einen G5 damit es vergleichbar mit einem Linux auf PIII laeuft. Oder G4 um mit besseren PI mitzuhalten. Schau mal im Netz unter Microkernel nach fuer den Grund. > Wie Unix die Multimedia-Performanz drueckt verstehst wohl nur du allein Schau mal in Netz unter "display server round trip time" nach. Das ist der Zeit (und CPU) Verbrauch der durch 2 mal IPC und Prozesswechsel verbraten wird, und das bei jedem einzelnen Zeichenbefehl. Und das ist standard Informatiker Wissen. Und ja, das ist genau die selbige Begruendung fuer die beruehmten mitte 1995er Torwalds gegen Tannenbaum Flamewar ueber Microkernel. X hat genau den selbigen Designfehler wie Microkernel, nur noch ineffizienter (weil Unix Named Pipes ineffizienter sind als absichtlich fuer RPC Gebrauch optimierte Microkernel IPC Verfahren). > "CPU-fressendes X"? Ich lach mich weg. Du hast wirklich keinen Schimmer von > X11 Du scheinst vom IPC Problem keine Ahnung zu haben, also koennen deine X Kenntnisse nicht gerade berauschend sein. Anderseits kenne ich persoenlich (= in RL zu ihm nach Hause eingeladen worden) einen bei Redhat arbeitenden Linux Networking Kernelhacker, der wenn man X erwaehnt sehr defensiv wird, in der Art "Das Teil ist nicht representativ fuer Unix Performance". Leider ist es representativ fuer Unix Videoausgabe Performance. > Der Vergleich war sowieso damals Windows Ein "Wir sind besser als Scheisse" Argument (das war damals Windows/DOS, nicht Windows/NT das halbwegs respektabel ist). Ein Einaeugiger der nur Schwarzweiss sieht mag besser sein als ein Blinder. Aber das Beste ist das noch lange nicht. Such dir eine bessere Messlatte. > Mal ganz davon abgesehen, was will mich mit mehreren Videostreams > gleichzeitig? Reserven haben? Neben Hauptprogram noch nebenbei die Videokamera ueberwachen? Multiperson Videokonferenz? Kleinere oder untertacktete CPU benutzen fuer luefterloses Wohnzimmer Geraet? Notebook Batterie laenger leben lassen? Weniger Storm verbruzzeln ist immer gut. > Danke fuer den ganzen Spam auch, liebe Dumpfbacken. Schade, dass die Spammer > eure Maschinen selbst gebrauchen koennen Du scheinst auch den Unterschied zwischen Multiuser (= Usernamen/ID/Zugriffsrechte) und verhindern von Sicherheitsloechern nicht zu kennen. Linux Viren sind auch moeglich. Der erste Linux Wurm gab es bereit vor ein paar Jahren, griff den Apachen an. Mac OS X ist jetzt gerade genug bedeutend dass es den ersten Virus gibt. Linux ist auch nur eine Zeitfrage. Brauchen tut man nur einen Buffer Overflow in einem beliebigen Netzwerk benutzenden Program. Und dank Schrott wie C (das sich nur durch Unix so verbreitet hat) hat Linux genug solcher Loecher. Man kann auch dichtere Singleuser Systeme machen als Windows/DOS (selbst nur ein C-loses Windows/DOS!), genauso wie es bessere multiuser Systeme gibt als Windows/NT. > Wenigstens gibst du zu, dass du Unix-Hasser Wohl weil ich dazu stehe. Weil ich besseres erlebt habe. Und weiss dass noch besseres moeglich ist. Waehrend du scheints nur ganz uebel (Windows/DOS) etwas weniger uebel (Windows/NT) und nicht ganz so uebel (Unix) kennst. P.S. Ich benutze Linux, und habe kein Windows. Es ist das geringere Uebel, aber gut ist es nicht. > Multi-Purpose-Geraete wie PCs (ja und auch Macs) sollten fuer euch > Merkbefreite verboten sein Stell dir vor, ich ziehe Multifunktionsgeraete vor. Genauso wie ich Open Source vorziehe. Weil flexibler, und weniger limitierend. Aber ich hab gerne welche die gut funktionieren. Und sauber und ohne Murks aufgebaut sind. Und ohne einem langsamen Zwangs-Handlanger (X Server) zwischen mir und dem Videospeicher. > Tja, wenn irgendetwas an BeOS wirklich brauchbar gewesen waere, haetten Apple > und MS es wohl "geklaut" Apple hatte nach dem Copland (gescheiterter vorgesehner Mac OS 8 Nachfolger) Desaster keine Zeit zum nochmals etwas entwickeln. Da blieb nur Notnagel Mac OS 9 und sofort einen Nachfolger einkaufen. Und die Auswahl was BeOS oder NeXTstep. Ersteres war ihnen zu teuer. MS hatte eh schon NT 3.5 (ebenfalls eingekauft, ist vom VMS Chefdesigner) draussen bevor BeOS ueberhaupt bekannt wurde. > DVDs, MPEG-4, MP3, AAC etc. pp laeuft doch unter Linux, BSD, selbst Windows > einwandfrei Alte Fliegerwahrheit: Mit genug Motorleistung kriegt man alles in die Luft, auch eine Scheunentuere (und ja ich kenn jemand der es gemacht hat!). Mit genug CPU kriegt man auch Muellsoftware zum performen. Einfach GHz rein, egal ob Athlon/P4/Opteron/G5. Warum tun selbst simple 5 Jahre alte .avi ruckeln und Frames droppen auf Linux auf einem 350Mhz Prozi? Und ja, es gibt auch heute 200..400MHz embedded Prozessoren, und auf 500..800MHz runtergetacktete luefterlose VIA chips. > Also welche Vorteile soll denn BeOS oder Haiku dann sonst haben? Du bist ja > offensichtlich nicht in der Lage welche zu nennen. Da muss ich wohl bei > meiner festen Meinung bleiben. Steht einiges in diesem Kommentar: Vor allem X Performance verschleiss dank IPC. ###### > Re: Warum? > [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=11] > (Score:0) > von Anonymer Feigling am Fri. 24. February 06, 0:59 MEW > Meinst du nicht, dass du mit deiner X11-Kritik mindestens 10 Jahre zu spaet > dran bist? H264 braucht einiges an CPU. Das hat aber so ziemlich mit 0,nix > mit X11 zu tun. Das mit "CPU-Power"-Pseudo-Argument bringt doch nix. Mein > C128 startet eh nicht mehr und der 486er hat nur 32 MB RAM. Zum Kompilieren > ist der eh saulahm. Oder liegt das auch nur am IPC? Kompiliert man mit Haiku > schneller? > C ist Schrott? Das ich nicht lache. Nur weil jedes Kokshirn meint es koenne C > programmieren, ist C Schrott? *ROTFLMAO* Autos sind auch Schrott. Staendig > werden damit Leute totgefahren. Flugzeuge! Wir brauchen Flugzeuge fuer > jedermann! Die sind naemlich viel sicherer. > Du kennst auch so einige Unterschiede nicht. Wenn du meinst ohne > Buffer-Overflows sei die Welt sicher, danne lade ich dich ein etwas Java oder > PHP zu rauchen. Da siehst du dann mal was die Kokshirne auch Pointer > verbrechen. Die Sicherheit ist ein Zusatzeffekt eines Multi-User-Systems und > verhindert, dass deine geliebten Kokshirne beliebig grossen Schaden anrichten > koennen. > "BeOS is written in C and C++." Das ist ja ein Supervorteil gegenueber einem > Unix-Kernel der in C geschrieben ist. Vor allem ist C++ ja so supergeil. > Hunderte Seiten Standardgesuelze, keiner implementierts, nichts ist > kompatibel und ein standardisiertes ABI gibt es auch nach 20 Jahren noch > nicht. Wenn hier etwas ganz gewaltig stinkt, dann ist das nicht C, sondern > C++. Waere BeOS in Eiffel geschrieben, OK, das waere mal was. Aber C++? > *kotz* *lach* *kotz* > Und ja, Linus war eine dumme, faule Socke. Kein Mensch braucht Linux. BSD war > vor Linux da und ist immer noch auf Augenhoehe. Aber Linux rul0rt eben kleine > Kinners und deshalb geht da die ganze Manpower hin. Pech, dafuer ist es auch > ein riesen Haufen Krimskrams und wird geregelt von einem Haufen > grossmaeuliger Choreliker (nein nicht mir). > Das einzige was an BSD stinkt ist, dass es eben nicht auf einem Micro-Kernel > basiert und nein Mac OS X hat damit rein gar nichts zu tun. FreeBSD auf nen > MACH draufklatschen ist sicher nicht die Idee. > Wenn Linux scheisse auf nem Mac laeuft, dann hau da eben ein BSD drauf z.B. > NetBSD. Dass Linux auf anderen Systemen als x86 nur pseudomaessig laeuft ist > bekannt. Kein Wunder, Linux ist fuer x86 entwickelt und die meisten User als > auch Entwickler haben und kennen nichts anderes. Mehr als make && boot && > echo supported passiert bei Linux nicht. > BeOS hat sicher mehr Loecher als ich Poren, das interessiert nur niemanden, > weil es nur 20 Menschen weltweit nutzen. > Gut das ich kein Informatiker bin, sonst wuesste ich wohl nicht was > Display-Lists in OpenGL sind und wuerde auch so einen Schrott von wegen RTT > faseln. Wahrscheinlich wuerde ich sogar behaupten, RTT fresse CPU-Zeit. Du > kannst X11 solange lahmreden wie du willst. Das aendert nichts daran, dass es > schnell genug ist fuer alles was man damit machen kann und will. Ob dein > Kernelhacker ueberhaupt Ahnung von X oder Grafik im Allgemeinen hat, kann > ich sowieso nicht wissen. Es kann einem Enduser doch auch voellig scheissegal > sein. Ich vermisse nichts und habe auch kein Performanzproblem. Ich erinnere > mich noch gut dass Netscape 4.8 deutlich schneller und stabiler unter BSD > lief im Gegensatz zu der Windowsversion. Und MP3s abspielen brauchte auch > weniger Leistung, Coolplayer war unter Windows sowieso der einzige Player der > schnell genug war. Von daher kann mal wohl kaum behaupten, dass Unix weniger > effizient oder performant ist. Aber Informatiker der Unix hasst, ist > wahrscheinlich eh bloss Mediengestalter oder hat gerade mal nen Bachelor. > Aber die Schwanzvergleiche sind eh sinnlos, solange man nicht 1:1 auf > derselben Hardware vergleicht. Ich bin naemlich ueberzeugt, dass BeOS ganz > einfach ein paar hochoptimierte Treiber und Codecs hat(te). > Dass du unter Nicht-Windows deine Hardware besonders die Grafik nicht (voll, > oft kaum) ausnutzen kannst liegt ja nunmal einfach an den Herstellern. Vor 10 > Jahren sah das noch anders aus, seit alles auf 3D-Hardware basiert, sind die > Specs mehr oder weniger geheim und man kann nur die Basisfunktionen nutzen. > Unix ist schon deshalb besser als BeOS, weil es ein Multi-User-System ist. > Ist BeOS Scheisse? Wenn nicht, dann kannste dein "besser als Scheisse" > abhaken. Vor allem ist ein Unix fuer fast alles geeignet. Reine > Enduser-Systeme wie Win 3.11 und 9x sind tot. Die kann man hoechstens auf den > DVD-Player oder das Handy klatschen, aber selbst da ist Unix mit bunter GUI > sinnvoller. > Dein Z80 war nicht effizienter wegen Singleuser, sondern wegen > Single-Tasking. Der Overhead durch Multi-Tasking ist aber heute wesentlich > geringer und BeOS hat jawohl auch nen Scheduler wahrscheinlich sogar einen > fuer Echtzeit brauchbar ist. > Uebrigens ist Virtualisierung bald ein Standardfeature sowie es heutzutage > Multi-Tasking ist. Das bringt uebrigens noch mehr Sicherheit. Aber das > interessiert dich wahrscheinlich beides nicht, weil das CPU-Zeit > verschwendet. Und ein Wurm der einen Indianer angreift ist fuer den Rest des > Systems reichlich ungefaehrlich. Einfach den Indianer updaten, sein jail > aufraeumen und weitergehts. Dein BeOS waer da erstmal komplett im Eimer. ###### Re: Warum? [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=12] > dass du mit deiner X11-Kritik mindestens 10 Jahre zu spaet dran bist Leider ist X auch heute immer noch mies an der selbigen Krankheit. Also bleibt die Kritik aktuell. > H264 braucht einiges an CPU. Das hat aber so ziemlich mit 0,nix mit X11 zu > tun Was trotzdem nichts daran aendert dass X immer noch Scheisse ist, nur weil ein weiterer CPU Fresser danaben steht. > Das mit "CPU-Power"-Pseudo-Argument Sag das dem Notebook Akku. Oder dem Ventilator. Die kuemmern sich nur um Physik, und nicht um deine Propaganda Wertungen. > C ist Schrott? Das ich nicht lache ... Autos sind auch Schrott. Staendig > werden damit Leute totgefahren Du scheints den Unterschied zwischen mit einmaliger Aktion (Sprachdesign) sehr leicht vermeidbaren und nur mit massiven wiederholtem Aufwand (jeder Fahrer an jeder Fahrt) etwas reduzierbaren Unfaellen nicht zu verstehen. Nur weil letzteres ein Problem ist muss man nicht auf ersteres verzichten. P.S. In Autos hat man auch Sicherheitsgurte, fuer einen Teil der Unfallfolgen zu vermeiden. C Fans scheinen zu der Sorte Idioten zu gehoeren die Sicherheitsgurte fuer ueberfluessig halten, oder Helm auf dem Motorrad, oder Leitplanken. Dass man nebenbei bei echten "dichten" Strings auch noch Programmiererzeit (all die expliziten Test die nicht vergessen wurden) und CPU Zeit (all die Sucherei nach '\0' gegenueber einfach Pointer auf Ende auslesen) spart kommt noch als "Gratisgeschenk" dazu. > Wenn du meinst ohne Buffer-Overflows sei die Welt sicher, danne lade ich dich > ein etwas Java oder PHP zu rauchen Bugtraq hat mal vor ein paar Jahren festgestellt, dass ueber 50% aller auf ihrer Liste veroeffentlichen Bugs sich um Buffer Overflows drehten. Danke fuer die vielen Millionen verschwendeter Stunden Arbeitszeit "dank" Sploits aufraeumen oder vorbeugender Upgrades machen. Dass es heute dazu noch system()&Co basierte Bugs gibt aendert daran nix. Du scheinst ueberhaupt ein grosser Freund von "Es gibt andere Scheisse also warum darf nicht alles Scheisse sein" Argumenten zu sein. > BeOS is written in C and C++. .. Vor allem ist C++ ja so supergeil Wo soll ich gesagt haben, dass ich C++ gut finde? Es ist C, also implizit Muell. Und es sagt etwas ueber den Unixoiden Schaden aus, dass selbst die BeOS Schreiber sich nicht von dieser Seuche ganz entsagen konnten. > Kein Mensch braucht Linux. BSD war vor Linux da und ist immer noch ... Ah, ein verbitterter BSD Freak, der es nicht mag, dass die seinem System zustehende Ehre von einem Neuling genommen wurde. Das erklaert die Menge Galle. > Wenn Linux scheisse auf nem Mac laeuft, dann hau da eben ein BSD drauf Wo soll ich gesagt haben, dass mich Mac Hardware interessiert? Ich hab hier ganz normalen IBM PC Schrottdesign kompatible x86 Hardware. Bitte halte dich beim Argumentieren an das was der Gegenueber sagt, sonst haben deine resultierenden Strohmannargumente keinerlei Wirkung, weil sie ins Leere schiessen. Und Strohmaenner Paraden abschiessen ist ausserdem saulangweilig, dein Gegenueber hat irgendwann genug und geht, und du hast verloren. > wuesste ich wohl nicht was Display-Lists in OpenGL sind Leider weisst du wohl nicht, dass OpenGL nur bei 3D zum Zug kommt,und daher bei 2D Zeichnen oder Videos abspielen irrelevant ist. > X11 solange lahmreden Wieso etwas lahmreden wenn etwas schon demonstrativ lahm ist, und man nur das dokumentieren muss? > Es kann einem Enduser doch auch voellig scheissegal sein Ach. Unnoetig leerer Notebook Akku kann ihm ja sooo egal sein. Unnoetig laermender Ventilator im Wohnzimmer ist ja auch sooo egal. > deutlich schneller und stabiler ... zu der Windowsversion ... unter Windows > ... Und schon wieder der Vergleich mit etwas noch schlechterem. Und das trotzdem dass ich im letzten Kommentar schon mich von Windows distanziert hab (und du damit wieder ins Leere schiesst). Mangelhafte Sorgfalt beim Argumentieren. Und scheints auch vergleichbare beim Systeme beurteilen. > Aber Informatiker der Unix hasst, ist wahrscheinlich eh bloss Mediengestalter > oder hat gerade mal nen Bachelor Und nochmals gleich ein "mangelhaft". Das mal dafuer, aus der Aussage "Das ist standard Informatikerwissen" den Fehlschluss gemacht zu haben dass ich Informatiker sei. Und dann erst noch gleich eine Spekulation ueber Mediengestalter anzuhaengen. Und das obwohl erst noch oben eine Homepage URL steht, wo man nachschauen koennte. Real bin ich Elekroingenieur (inkl Erfahrung im Chipdesign) und arbeite heute als Programmierer, nach einer kurzen Phase als Sysadmin. Und dank dem Ingenieursverhalten anstaendiges Design zu verlangen, und nicht einfach beliebige "anderes ist schlimmer" Hacks zu nehmen, bleiben die meisten Autos stabil auf der Strasse, die meisten Flieger sicher in der Luft und die meisten AKWs am Boden. Eigentlich fast alle, wenn man Fahrer, Piloten und Operateure ihre Fehler weglaesst. > Schwanzvergleiche sind eh sinnlos, solange man nicht 1:1 auf derselben > Hardware vergleicht Stell dir vor, was all die "Der Rechner laeuft jetzt schneller" Leute wohl gemacht haben? Auf der selbigen Hardware getestet. > Dass du unter Nicht-Windows deine Hardware besonders die Grafik nicht (voll, > oft kaum) ausnutzen kannst ... Ich hab schon gesagt, dass mich Windows vs Linux Vergleiche nicht interessieren. Wir diskutieren hier Unix vs besseres. Windows ist da eh schon disqualifiziert weil miserables Design. > Dein Z80 war nicht effizienter wegen Singleuser, sondern wegen > Single-Tasking Schoen dass du ohne weitere Details als Prozessortyp und Singleuser zu kennen einfach eine Multiprozessor (wenn auch nur assymetrisches) Kiste zum Singletask System abqualifizierst. Zwischen Fakten und Spekulationen unterscheiden hast du wohl wirklich ein Problem. > Virtualisierung bald ein Standardfeature sowie es heutzutage Multi-Tasking > ist Jegliches Mutkitasking ist zumindest teilweise Virtualisierung, selbst blosses Multithreading virtualisiert die CPU, Tasks auch den Speicher und abstrahiertes IO. Reale Virtualisierung ist einfach wenn auch die IO Register virtuell sind. Und auch das ist Uralt, gibt es seit CP/67 auf der IBM 360/67 anfangs 1970er. Fuer Server etwas das auch im PC Bereich ueberfaellig ist, damit man 1000e stromfressende 0.1% CPU-Last Physical Hostings (1HE oder Blade Kisten) auf eine 2-SMP Kiste konsolidieren kann. > Und ein Wurm der einen Indianer angreift ist fuer den Rest des Systems > reichlich ungefaehrlich So ungefaehrlich wie es SQL Slammer war :-). Und fuer ein DDoS Zombie oder Spambot Netz aufbauen ausreichend. Von ebenso moeglichen Angriffen auf Firefox oder Thunderbird oder Openoffice, sobald sie genug verbreitet sind zum interessant sein, ganz zu schwiegen. ###### > Re: Warum? > [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=13] > Niemand braucht rohe C-Strings verwenden, abgesehen von einigen Interfaces, > wo sie kein (Sicherheits-)Problem darstellen. Ein Layer ueber C-Strings zu > ziehen, der das Handling effizienter und sicherer macht, ist vergleichsweise > trivial. Die Suche nach der NUL ist fast nie nennenswerter Overhead, da die > mehrheits der Strings sehr kurz ist. Da wo der Overhead eine Rolle spielt, > nutzt man eben ein anderes Interface. Es behauptet ja auch niemand Listen > sind Scheisse, weil Hashtables schneller sind. Du kannst C-String sowieso mit > Pascal-Strings kombinieren. Du kannst aber auch deine Strings aber auch auf > beliebig andere komplexe Weise darstellen. Kein Mensch braucht strcpy() und > Konsorten benutzen. C schenkt dir eben nichts, laesst dir aber sehr viel > Freiheit. > Der Vorteil bei C ist immer, dass es > sehr wenig Annahmen macht und dadurch sehr portabel ist. Es erfordert > natuerlich mehr Koennen als Java um portabel zu sein. Dafuer laeuft der Code > dann aber auch auf dutzenden von Architekturen und Betriebssystemen und nicht > bloss auf 3-4. Nur weil C immer wieder missbraucht und von Stuempern genutzt > wird, macht es die Sprache nicht schlecht. Selbst an Unis sind C-Kurse oft > von zweifelhafter Qualitaet. Der Fehler liegt wohl eher beim Versagen der > "einfacheren" oder "maechtigeren" Alternativen. > Ist JIT oder Emulation denn etwa besser? Java wurde erst nach Jahren > "interessant" als die Maschinen endlich schnell genug waren. Wahrscheinlich > sagst du jetzt wieder "hab ich behauptet Java sei toll?". > Du deklarierst ja alles als Scheisse ohne eine Alternative zu nennen. > Dass dein Notebook-Akku sich schnell leert, kann auch an mangelhafter > Unterstuetzung des Power-Managements liegen. Dank der Verschwiegenheit der > Hersteller sieht es da unter BSD recht mau aus. Linux ist da etwas besser. > Letztlich sind Notebooks aber heutzutage voellig ueberladen. In jedem > Notebook der letzten Jahre steckt mehr Power als in meinem Desktop. Wozu man > den ganzen RAM und vor allem den hohen CPU-Takt sowie eine Turbo-3D-Karte > braucht, ist mir schleierhaft. Ja, schon klar verglichen mit Desktop-Karten > sind die eher lahm. Ein 17"-Display frisst sicher auch mehr Strom als ein > 14"-Equivalent was fuer Notebook-Zwecke reichen wuerde. Fuer den > Stromverbrauch wuerde ich deshalb eher die ueberzogene Hardware > verantwortlich machen. Natuerlich tun ineffiziente GUI und > Grafik-Spielereien ihr Uebriges, aber mir reicht nicht nur blackbox und ich > finde es auch sehr ergonom nicht mir Krimskram vollgemuellt zu werden. > OpenGL kann und wird in Zukunft wohl fuer 2D genutzt. 3D ist ja bloss eine > "Obermenge" von 2D. Ich weiss nicht, welche tollen Tricks BeOS fuer Videos > nutzt, aber XVideo funktioniert hier wunderbar und spart einiges an CPU fuer > das Skalieren und die YUVRGB Wandlung. Sicherlich muss man Abstriche machen, > da nicht beliebig direkt auf die Hardware zugegriffen werden kann. Das ist > mir die Sicherheit aber Wert. Ich finds auch Schade, dass ich nicht wie unter > DOS einfach im Speicher rumschreiben kann und so super-effizient > Pixel auf den Bildschirm schmeissen kann. Was ich mit 10 Jahre zu spaet > meinte, war dass der Overhead heutzutage meist vernachlaessigbar ist. Der > Overhead ist doch auch nicht zum Spass da, sondern erfuellt eine Funktion. > Du vergisst glaube ich auch, dass bei lokaler IPC memory-mapping als auch DMA > genutzt werden. Das funktioniert auch transparent mit Sockets. BSDs haben da > ueberlicherweise Zero-Copying, sprich Daten werden quasi direkt von der > Festplatte ueber den Bus ueber die Netzwerkkarte geschickt, ohne den Umweg > ueber RAM-Puffer, solange es die Hardware erlaubt. Bei Videos musst du > sowieso erst mal dekodieren. Ich will X11 gar nicht schoen reden. Es wurde > sicherlich zulange vernachlaessigt. Aber das Modell an sich hat sich > bewaehrt. Wo wir beim Thema Stromfresser sind: Gerade in Firmen, Unis etc. > ist es sehr sinnvoll Terminals (z.B. SunRays) anstatt vollwertiger PCs zu > verwenden und da kann X11 seine Vorteile auch voll ausspielen. Das ist aber > prinzipiell auch fuer zuhause interessant. Die meisten schaffen sich aber > anscheinend lieber 2-3 PCs fuer die Familie an, selbst wenn 2 davon nur fuers > Surfen und Briefe schreiben genutzt werden. Auch hier zeigt sich ein Vorteil > des Multi-User-Systems. > Ich habe nicht angefangen, von G4 und G5 zu sprechen. Wenn dir Mac-Hardware > egal ist, erwaehne sie eben nicht. Mich stoert der x86-Inzest schon etwas. > Wenn dir Stromverbrauch und Effizienz so wichtig ist, dann sollte es dich > auch stoeren. Alpha, SH5, Itanium, ARM und Sparc sind alles interessante und > meist wesentlich effizientere Architekturen. Gerade fuer PDAs und Notebooks > oft ideal aber leider kaum nutzbar da populaere Betriebssysteme x86-zentrisch > sind. Konkurrenz wuerde das Geschaeft beleben. Bei meinem OS kann mir die > Architektur ziemlich egal sein, an der Oberflaeche macht es keinen > Unterschied. > Uebrigens braucht man gar keine Bugs fuer den Weltuntergang. Benutzer und > Fischer beweisen immer wieder, dass die menschliche Intelligenz der groesste > Designfehler ueberhaupt ist. > Schwere Bugs im OS sind wohl Groessenordnungen geringer als solche in > Applikationen. Was fuer Magie hat BeOS denn eingebaut um remote-exploits > unmoeglich zu machen? Du missverstehst mich sowieso. Ich behaupte > Unix-Systeme bieten vielfaeltige Konzepte um den Schaden der angerichtet > werden kann zu verringern. Voellig ausschliessen kann man gefaehrlich Bugs > wohl nicht. > und perfekte Sicherheit ist unmoeglich. > Das Multi-User-Konzept bringt aber eine Menge. Wenn > viele Benutzer zu faul oder unerfahren sind, um es zu nutzen, dann ist das > deren Problem und nicht das von Unix. Das ist aber ein sehr generelles > Problem: eine andere Erscheinungsform ist das Nichtlesen von Anleitungen > aller moeglichen Geraete. Dafuer sind sich viele zu fein. Ich glaube > heutzutage sind es Benutzer auch nicht mehr gewohnt, den Umgang mit dem OS > wirklich zu erlernen. Viele Systeme sind auf "learning by doing" getrimmt. > Das mag bei Spezialgeraeten funktionieren, bei einem so "gefaehrlichen" > Allzweck-Werkzeug wie einem PC ist diese Einstellung voellig fehl am Platz. > Man braucht weiss Gott keinen PC-Fuehrerschein, aber ohne Grundlagen-Wissen > nuetzen einem die besten Unix-Mechanismen nichts. Das gilt natuerlich genauso > fuer andere Betriebssysteme, wobei bei gewissen Systemen einfach furchtbar > ueble Voreinstellungen hinzukommen. > Jedes System mit Timer-Interrupt ist Multi-Tasking faehig, eventuell dann > eben ohne gegenseitigen Schutz der Tasks. Multi-Threading ist wohl der > bessere Begriff zumindest ist es dann verstaendlicher. Du hast aber nicht > erklaert worauf dein Mainframe vs. Z80 hinauslaufen sollte. Daher habe ich > eben spekuliert. Nebelkerzen auffangen ist ein Hobby von mir. ###### Re: Warum? [http://www.symlink.ch/comments.pl?sid=06/02/20/082234&cid=14] (Score:2) von dino (neil@franklin.ch.remove) am Sat. 25. February 06, 0:35 MEW (User #32 Info) http://neil.franklin.ch/ > Ein Layer ueber C-Strings zu ziehen, der das Handling effizienter und > sicherer macht, ist vergleichsweise trivial Achja, und jede Library hat dann ihren eigenes String Layer, 100e Male Standardfunktion reimplementiert. Und alle nicht zu einander kompatibel (also immer zweimalige Formatwandlung). Toll. Hoehere Programmiersprachen wuerden erfunden zum Programmierern Fleissarbeit abzunehmen, erst recht fehleranfaellige. C hat da wohl soeben versagt. > C schenkt dir eben nichts, laesst dir aber sehr viel Freiheit Wie waer es damit, eine brauchbare und standardisierte Methode anbieten, und immer noch die Freiheit lassen, falls man die dann ueberhaupt noch braucht? Standard C99 mit nur brauchbaren Standardstrings (und zugehoerigen Standardlibrarys) addiert waer ganz ordenlich brauchbar, und wuerd immer noch alles andere koennen. Den "complex" Datentyp addieren war wichtig genug, aber "string" Datentyp addieren nicht, fuer die Typen bei ANSI. > sehr wenig Annahmen macht und dadurch sehr portabel ist Und Strings richtig dicht implementieren wuerde die Portabilitaet genau wie verhindern? > Ist JIT oder Emulation denn etwa besser? Aepfel (Sprachfeature) mit Birnen (Implementation) verglichen. Siehe auch den gcj Echt-Compiler fuer Java. > Wahrscheinlich sagst du jetzt wieder "hab ich behauptet Java sei toll?". a) Richtig, werd ich genau sagen. b) Ich hab Java probiert, fuehlt sich an wie durch Sumpf waten. Iiiii. Da ist C weitaus ertraeglicher. > Du deklarierst ja alles als Scheisse ohne eine Alternative zu nennen. Koennte das wohl dran liegen, dass "dank" Unix und C es keine Entwicklung moderner Alternativen mehr gegeben hat (Microsoft ist keine Alternative)? Heute werden fast nur OO Scriptsprachen erfunden, eine reine prozedurale Compilersprache ohne JIT gabs seit langem keine neue mehr. Ich verwende wie schon gesagt Linux (und schreibe dies auf einem), trotzdem das es schlecht ist, weil es leider sonst nur noch schlechteres zur Auswahl hat. Dito benutze ich auch C, weil es auch das geringere Uebel ist. Aber es bleibt trotzdem schlecht. Und verdient als solches kritisiert zu werden. Damit die Leute nicht vergessen, dass es einmal besseres gab. Und in Zukunft besseres geben koennte. Besserung beginnt damit, dass man erkennt dass das jetztige nicht ideal ist. > Dass dein Notebook-Akku sich schnell leert, kann auch an mangelhafter > Unterstuetzung des Power-Managements liegen Sorry, das ist jetzt aber sowas von lachhaft was du rauslaesst. Auch bestes Powermangement kann nur Leerzyklen einsparen. Wenn das Program unnoetig Rechenpower will, muss die CPU unnoetig arbeiten, und dabei unnoetig Strom verbrauchen. Das ist simple Physik. Und einen HALT opcode im Thread Sheduler wenn bis zum naechsten Interrupt nix mehr zu rechnen ansteht konnte schon jeder 1970er 8bit Rechner. > Sicherlich muss man Abstriche machen, da nicht beliebig direkt auf die > Hardware zugegriffen werden kann. Das ist mir die Sicherheit aber Wert Das ist bei mancher Hardware (CPU, Hauptspeicher, Disks) sinnvoll (Crashes, Datenverluste). Bei Videospeicher ist das relativ fragwuerdig. Da koennen maximal Pixel dabei draufgehen, und die sind erneut zeichenbar. Und zumindest fuer ganze Bildschirmbreite bandfoermige Fenster liesse sich sogar per MMU nur der erlaubte Speicherbereich freischalten, ein vmap() analog zu mmap(). 1988 gab es sogar eine Videokarte namens Tektite die fuer echte Fenster die Daten aus verschiedenen Speicherbereichen holen konnte, voll MMU freundlich. > Der Overhead ist doch auch nicht zum Spass da, sondern erfuellt eine Funktion Fuer Video ist ein derartiger Overhead wie IPC also nicht rechtfertigbar. Selbst Files liest du ja auch nicht per NFS Verbindung von jedem Prozess zu einem Fileserver Prozess auf der selbigen CPU. Und dabei sind Disksektoren erheblich wertvoller, weil unersetzbarer Inhalt. > dass bei lokaler IPC memory-mapping als auch DMA genutzt Natuerlich gehen dabei nur die Bulk Daten ueber DMA. Die Message geht immer noch ueber IPC. Und die Prozesswechsel hat man auch immer noch. > SunRays ... X11 seine Vorteile auch voll ausspielen Mal abgesehen davon dass die SunRay eben nix von X versteht. Und auf dem Server beliebiges Graphiksystem laufen kann, solange es zuunterst SunRay Kommandos (nur simple Pixelsetzer, Blockfills, Bitmapfills und Blockmoves) generiert. Ach ja, ein erheblich kleineres und billigeres USB2VGA genanntes Geraetchen schaft SunRay-artige Mehrfach-Ausgabe direkt von beliebigem PC, sogar ohne Ethernet, und schneller. Linux 2.6 hat sogar Treiber dafuer. Ob es aber auch schafft mehrere USB Hub+Tastatur+Maus+USB2VGA+Floppy/CD/Digicam Stationen richtig auseinanderzuhalten und den Usern ihren Displays zuzuordnen ... > schaffen sich aber anscheinend lieber 2-3 PCs fuer die Familie .. zeigt sich ein Vorteil des Multi-User-Systems Die Einzel PCs laufen dann ein paar Sunden am Tag oder gar nicht, waehrend ein Multi User Sytem dann 24h laufen wuerde. Und oft sind die mehreren PCs eh die ueber Jahren beschafften alten Systeme. > Ich behaupte Unix-Systeme bieten vielfaeltige Konzepte um den Schaden der > angerichtet werden kann zu verringern Spaetestens normaler Sploit Shellcode kann auch in Userprozessen fork() und exec() oder socket() machen. Fuer alle Userdaten killen (das wertvollste auf dem Rechner) oder DDoS/Spambot (das extern nervigste) reicht das. So dicht ist der Multiuser Schutz also nicht, gerade mal System Neuinstall hat es verhindert. > Benutzer auch nicht mehr gewohnt, den Umgang mit dem OS wirklich zu erlernen Haben sie auch recht. Der Rechner wurde ja auch von ihnen beschafft zum ihnen Arbeit abnehmen, nicht um ihnen unverstehbare Arbeit aufzuhalsen. > gewissen Systemen einfach furchtbar ueble Voreinstellungen hinzukommen Das ist ein Riesenproblem Userseitig. Da sind wir uns sogar einig. "Default alles zu" ist leider zu oft nicht die Herstellerpolicy. Unabhaengig von Unix oder anderes. Wobei die Unixen etwas weniger schlecht dastehen (oder zumindest vor 5..10 Jahren dastanden, sie sind inzwischen wieder Windows-kompatibel degeneriert :-( ).