Ja er schreibte es halt absichtlich falsch.
Beiträge von thosch97
-
-
sich null ins System integrieren. Zumal die ständig Sicherheitslücken hat.Also ich find ja, das sieht (okay, vielleicht die Icons nicht so) recht nativ aus.
-
Das kann auch wunderbar schief gehen, versuch mal, Eclipse zu confen.
-
Lol in welcher antiquierten Welt lebst du? Mach mal dein Terminal zu und benutz nen modernen Editor.
Nö. Ein Terminal ist 80 Spalten breit, und das ist so standardisiert. Meins ist breiter (weil ich alles immer maximiert hab, und bei IRC wirds ganz nützlich), aber Code hat da aufzuhören. Alles breitere find ich auch schrecklich zum Lesen.
Und vim ist der beste Editor. Da musst du mit deinem „Aber die UNIX-Philosophie!!1!“ grad was sagen.
Noch mehr rockt freilich ed :>Ein Tab kann so repräsentiert werden, wie ich das möchte in Sublime Text. Stell dir vor, das kann ich dann einstellen, wie er mir das anzeigt. Das geht freilich nicht, wenn der Autor des Quelltextes mal wieder zu dämlich war, die Tab-Taste zu drücken und lieber die Leertaste dazu missbraucht. Sind das auch die Leute, die in Word mit der Leertaste "zentrieren"?
Niemand gibt ernsthaft Spaces selber ein (außer vielleicht, man indentet mit einem einzigen Space). Das macht der Editor automatisch und bei Python fallen bei einem Tab dann 4 Spaces raus.Python kann afaik auch richtige Tabs.
Ja, kann, sollte aber nicht: http://legacy.python.org/dev/peps/pep-0008/#code-lay-out -
Für MC und Starbound reichen 3GB RAM voll aus.
… die bekomen aber nur 2G. Das komplette OS kann nicht ganz 4G adressieren, die Programme nicht. Zumindest auf Windows.
-
Spaces sind schlimm. Wenn ich mit der linken Cursortaste nach links gehen will, kann ich das da nicht blockweise, sondern muss da immer rumhantieren Dann lieber Tabs. Zumal ich bei Tabs auch ne optimale Anpassung auf die jeweilige Bildschirmbreite meines Endgerätes bekomme.Bildschirmbreite sind 80 Spalten, ganz einfach. Ein Tab wird repräsentiert als 8 Spaces.
Python sinds übrigens dann 4 Spaces, die auch so gespeichert werden. Was Haskell will, weiß ich grad nicht, ich glaub da wars „hauptsache Indent“ – siehe auch https://en.wikibooks.org/wiki/Haskell/Indentation -
Das tu ich so doch auch, ich seh sogar direkt, zu welchem Aufruf die schließende Klammer gehört. Mal ganz abgesehen davon, dass mein Editor das sowieso faltet und schön anzeigt: https://i.imgur.com/PawSRR2.png
-
Argh bitte die { in ne neue Zeile. Und Tabs statt den Leerzeichen!Was gandro sagt. Da waren übrigens auch mal Tabs, die sind irgendwo unterwegs verloren gegangen, neue Version ist (jetzt auch mit besserem Spacing nach den Regeln) auf Gist.
-
Alle druckbaren ASCII-Zeichen ausgeben.
C
Alles anzeigen#include <stdio.h> #include <stdlib.h> #ifdef DEBUG #define OUTPUT "%02x " #else #define OUTPUT "%c " #endif int main(void) { unsigned char i, j; for (i=0x20; i<=0x70; i+=0x10) { for (j=0x00; (j<=0x0F && i+j!=0x7F); j++) { printf(OUTPUT, i+j); } printf("\n"); } return EXIT_SUCCESS; }
-
Hab oben auch noch ne alte ISA-Grafik mit nem Flachbandverbinder oben drauf, ich mein, der sah so ähnlich aus. Weiß nichtmehr genau, welche Karte, aber definitiv ein Hersteller, den man ewig nichtmehr kennt – Trident könnts gewesen sein.
-
Es ist halt hinten und vorne nicht abwärtskompatibel zu beklopptem alten Zeugs, eben mit so Späßen wie strlen("ä")=2.
-
Dann hätte ich hier ja ein 256 Bit-Rechner.. Und im Rechenzentrum wären sonstewas für Rechner unterwegs...
SPARCs gibts doch mit 64 oder 128 Kernen oder so
-
Wenn Microsoft die 32-Bit Version einstellen würde.. das wäre der richtige Schritt IMHO..Naja, dass Microsoft was macht, ist ja oft der einzige Weg, damit sich ne Technik mal durchsetzt. (U)EFI gammelte auch schon ein paar Jahre rum, und außer HP und Apple hat sich keiner dafür interessiert, aber als Microsoft das auf einmal wollte hat man dann auf einmal UEFI-Boards aus dem Ärmel geschüttelt.
-
Es gibt keine CPUs mit 128-Bittigem Daten- oder Adressbus. Höchstens Forschungsgeräte.
-
Ich möchte hier dann mal anmerken, dass die meisten Linuxdistributionen und OS X Releases fahren, nur das Geschäftsmodell ist anders. OS X ist seit Lion oder so kostenlos, bei Red Hat und SUSE hat man Supportverträge und der Rest ist sowieso kostenlos. Ubuntu zum Bleistift hat LTS-Versionen mit 5 Jahren Support, aber trotzdem halbjährliche Releases mit, äh, 1.5 Jahren oder sowas.
-
Ich bin zwar auch ein Freund von Unicode, aber UTF-8 ist nicht für alle Anwendungen das Gelbe vom Ei. Ich hoffe, dein Statement gilt nicht zwangsläufig auch für Embedded-Geschichten, denn mit 2-Byte-Kodierungen fährt man da oft besser.
Welches jetzt?
-
-
Code
Alles anzeigen7-Zip (A) [64] 9.20 Copyright (c) 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=utf8,Utf16=on,HugeFiles=on,8 CPUs) RAM size: 4096 MB, # CPU hardware threads: 8 RAM usage: 1701 MB, # Benchmark threads: 8 Dict Compressing | Decompressing Speed Usage R/U Rating | Speed Usage R/U Rating KB/s % MIPS MIPS | KB/s % MIPS MIPS 22: 15023 739 1977 14615 | 242985 771 2840 21914 23: 13692 751 1857 13950 | 239089 776 2819 21873 24: 13111 751 1875 14097 | 234379 776 2802 21741 25: 12617 747 1927 14405 | 228941 776 2773 21529 ---------------------------------------------------------------- Avr: 747 1909 14267 775 2809 21764 Tot: 761 2359 18015
2x Intel Xeon E5440, 2.83GHz, 4 Kerne jeweils. -
Um schei_ Encodingproblemen vorzubeugen.
Systeme, die nicht mit UTF-8 umgehen können, gehören sowieso aus dem Verkehr gezogen. Haskell ist ja komplett UTF-8-Clean, und der Typ Char beinhaltet immer UTF-8 und so lustiges Zeugs wie strlen("ä")=3 hat man da nicht, length "ä" gibt 1 zurück.
-
Gibt es einen bestimmten Grund, dass du die Umlaute escapest?
(Außerdem: Podencos wegen ihrer Eier züchten -- gute Idee )