Beiträge von ggeretsae

    Zitat von gandro

    Die einzige Massnahme wäre meines Errachtens eine anständige mediale Aufklärung der Bevölkerung, hauptsächlich in der Schule. Das ist die einzige saubere und humanistisch vertretbare Lösung.

    ich sag auch gar nicht das man den laden verbieten soll, aber ich finds erschreckend und bin eben auch für eine aufklärung.

    Zitat von oreissig

    wobei ich ehrlich sagen muss: wenn man davon ausgeht, dass die bild ordentlich recherchiert und das alles verifiziert, dann muss man schon selten dämlich sein und das mein ich absolut ernst :fresse:

    jo klar, das sagen wir als weitestgehend gebildete menschen, die auch mal sachen hinterfragen.
    aber hast du nen plan wieviele leute eben nicht hinterfragen. davon gibts eben viel zu viele, ich mein wer kauft sonst die bild? wenn ich nur bespassung brauch, kannsch auch nen witzebuch kaufen ;)

    es gibt soviele menschen, die eben fest an das glauben, was da veröffentlich wird. und genau das ist das problem. und da ist eben der punkt falsch, dass man die leser dieses klatschblattes in die schuld zieht.
    die schuld, wie sich dort an opfern vergangen wird liegt ganz klar bei der redaktion selbst.

    und wie schon in dem beitrag angeschnitten wurde, wenn ich nen bild im studi veröffentliche haben die kein recht das weiter zu nutzen. und diese klausel mit dem gesteigerten öffentlichen interesse verstehe wer will.
    ´wenn ich anfangen würde nen artiekl auszuarbeiten, wer alles meine nachbarin nackt sehen will, hab ich damit auch nen gesteigertes interesse (bestimmt jeder 5te würde nacktbilder sehen wollen) und zack darf ich die veröffentlich :D nenen, das gefällt mir absolut nicht.

    und nicht, dass das falsch rüberkommt, ich bin ein befürworter der pressefreiheit, aber ich finde man sollte solche vergehen wesentlich härter verfolgen.

    ich finde man muss hier aber differenzieren, wie die jeweiligen formate das vorallem begründen. klar sensationen noch und nöcher sind ne super sache zum steigern der auflage. das nur afu den konsumenten abzuwälzen find ich etwas sehr krass, denn wenn ich sowas konsumiere dann will ich davon ausgehen können, dass die redaktion dahinter auf fundierte quellen zugreift und das veröffentliche auch verifiziert.

    klar ich les keine bild, weil mir persönlich klar ist, dass das dort nicht so ist.
    aber was denkst du wieviele leute von den 30mio. deutschen (oder wieviele immer auch das wurstblatt lesen) das für voll nehmen, was da drin steht.
    die die bild als seriöse quelle nehmen, und davon ausgehen, dass es "echt" ist.

    du wärst sicherlich erschrocken. vondaher kann man nicht sagen, dass die bild nur den leser reflektiert, weil niemand wöllte sein eigenes privatleben aus dem netz gezogen, ohne einwilligung, in einer zeitung veröffentlicht sehen wollen. wenn man das den kundenstamm mal mitteilen würde, wäre die forderung vom leser sicherlich eine ganz andere.

    vondaher ist der fehler meiner meinung nach auf jeden fall bei den medien zu suchen, die sich einen scheiss ums private wohlergehen kümmern und auf grundlegende rechte keinerlei rücksicht nehmen. von der menschlichen seite gar nicht mal gesprochen, wie man ja schön in dem panorama beitrag gesehen hat.

    das problem ist halt, dass sone beiträge nie den durchschnittsleser von der bild oder auch den zuschauer von punkt12 news erreichen werden.
    daher kann man das schwer auf den kunden abwälzen.

    wenn du dein notebook von lenovo kaufst und davon ausgehst, dass es unter ordentlichen umständen erschaffen wurde, und später kommt raus, dass es kinder für 5 cent die stunde bauen, kannst du im nachgang auch nicht sagen, böser kunde!

    erklär mal, wie geht sowas genau, mit den views habsch mich noch nie beschäftigt.
    ich habs jetzt halt über die inner join klausel gelöst (wobei ich bis dato noch gar net wusste, dass das geht).

    damit habsch halt einfach im vorfeld nur nen bruchteil (milchmädchenrechnung: 1/200stel) von den datensätzen die ich überhaupt bearbeiten muss.

    nuja, der lösungsansatz den du gebracht hast, ist insofern kritisch, dabei jedem update (was häufiger vorkommt) den avg über den datensatz schiebe, was nicht sehr sinvoll ist.

    ich habs jetzt so gelöst:

    SQL
    SELECT user.user,user.time_sum,max(resets.time) as last,avg(resets.time_diff) as avg 
    FROM resets
    INNER JOIN  user  ON resets.user_id = user.id  WHERE resets.added=1
    GROUP BY  user.id
    ORDER BY time_sum DESC;

    na los, da chrisnew bewiesen hat, dass es hier noch quallitative beiträge geben könnt, post ich das problem mal mit hier ;)

    heyho,

    ich hab ein kleines spiel laufen, wo man sich durch klicks sessions unterschiedlicher länge sichern kann. man muss sozusagen zeitspannen sammeln und diese werden zu statistiken aufaddiert.

    ich hab jetzt eine tabelle wo alle zeitspannen eingetragen sind.
    dabei gehts vorallem um die spalten:

    Code
    user_id int(10)
    time     int(10)
    time_before int(10)
    time_diff    int(10)

    an daten brauch ich jetzt zu jedem user die gesammtzeit, die er erspielt hat, die wird zu dem user gespeichert. es gibt also in der usertabelle eine timesum spalte.
    allerdings möchte ich gerne noch die durchschnittszeiten für den benutzer haben.

    der komplette query sieht so aus:

    durch den subquery wird das ganze jetzt aber ziemlich langsam, bei 13k datensätzen brauch ich fast 2 sekunden dafür. (die benutzertabelle hat ca. 200 einträge)

    wie bekomm ich jetzt nen durchschnittswert effizienter berechnet. mein plan war, dass ich die avg() bei jedem klick bilde, aber das braucht ja dann auch wieder viel performance, ich glaube da erhalt ich keinen großen vorteil.

    jemand hinweise, wie man sowas optimieren kann?

    Zitat von dancle

    Lol, vorallen stimmt die Überschrift mal gar nicht, laut deren Statistik hat der IE 49,1% und Firefox gerade einmal 42,5%. Und wo enttrohnt der FFX jetzt den IE, nichtmal in deren Statistik schafft er den IE vom Thron zu stoßen. Wer schreibt eigentlich immer so ein Mist als News, achso PCGH, Müllzeitung erster Güte, gleich nach Bild.

    *sign*

    klar, der FF bietet schöne plugins und so, allerdings muss ich sagen, das der einfach nur immer lahmer bei mir wird.
    ich hab eine kleine auswahl an plugins bei mir installiert, und bei mir hängt die kiste aller 2 minuten mal für 1-2 sek, sehr blöd vorrallem bei videos.

    und das nervt, also der firefox ist bei weitem nicht das wahre, und fürn opera (mein performance künstler) gibts leider keine sinnvollen plugins :|

    nuja, und der chrone is der chrome ;)

    aber zum thema verbreitung, ich denke weltweit gesehen, über alle sparten, ist der IE immernoch extremst weit vorne mit sicherlich über 80%...

    und noch zum thema updates, klar is der FF oder Opera wenn in einer aktuellen version genutzt. beim ie sinds zumeist eh nur die user, die einfach nehmen was da ist und das wars dann.
    und da is eben oftmal nur der ie 5.5 da :fresse:

    jo an sich müsste das schon stimmen, aber wie bekomm ich die lücken geschlossen, das ist mein problem.
    es scheint mir, dass der ramverbrauch dynamisch in die höhe geht solange er gebraucht wird und anschliesend aber an dem punkt stehen bleibt, und das ist nen verhalten, was ich nich haben will.

    mir ist in meinem session system von meiner siginfo beta seite aufgefallen, das sehr häufig die baidu spiders vorbeischauen.
    das hatte nachdem ich die seite tatsache im index von baidu gefunden hab, hab ich mich antürlich gefragt, ob man da nen rauswurf provuzieren kann.
    gesagt getan, ich habe paar englische texte zu demokratie, menschenrechten und revolution eingefügt.

    Siginfo » home

    mal schauen wann der nächste spider kommt und ob ich dann sofort aus dem index verschwinde ;)

    ein paar infos noch zu baidu: Baidu - Wikipedia, the free encyclopedia

    die 42 und TWKR ;)
    darum ranken sich halt grad die ganzen gerüchte, was es nun mit der cpu aufsich hat.
    das ist halt marketing, aus ner stino cpu mache nen hype.
    und das ist gelungen find ich ;)

    was denkste, was die für preisse erzielen würde, wenn die als unikat in 2 wochen im ebay is ? ;)

    wenn ich viele Datensätze aus einer Tabelle lösche entsteht ja bei mysql erstmal ein overhead, den man mit nem einfachen optimize oder (glaube ich mal gelesen zu haben) mit einer modifikation der tabelle los wird (also insert, update etc...).

    Jetzt habe ich mir ein Sessionsystem geschrieben, was mir die Benutzerdaten immer in eine Tabelle schreibt, welche als Storage Engine "MEMORY" hat.
    Darauf kann man aber kein Optimize ausführen, wie bekomme ich jetzt den overhead und damit Ramverschwendung wieder weg?

    jemand ne idee?

    :D fand ich einfach hammer ;)

    Zitat

    AMD hat nicht nur in der „Phenom II X4“-Serie zwei verschiedene Typen von Prozessoren im eigenen Portfolio. Neben den herkömmlichen Varianten gibt es die sogenannten „Black Edition“-CPUs, die über keinen nach oben hin gesperrten Multiplikator verfügen, weshalb sich die Prozessoren in der Regel besser/leichter übertakten lassen.

    Der Gründer sowie CEO von „Maingear PC“ (einem PC-Hersteller mit Zielrichtung High-End-Bereich), Wallace Santos, berichtet in seinem Blog, dass er in den letzten Tagen eine etwas geheimnisvolle Post von AMD erhalten hat. Diese beinhaltet einen Phenom II, der nicht für den Verkauf gedacht ist und auf den Namen „Black Edition TWKR“ – wahrscheinlich abgeleitet von „Tweaker“ – hört. Was sich genau hinter dem Prozessor verbirgt, wollte AMD jedoch nicht verraten.

    Wahrscheinlich handelt es sich um eine noch besser übertaktbare Variante des Phenom II, um so etwas mehr Druck auf Intel und deren Core-i7-CPUs auszuüben. Wie Santos in seinem Blog schreibt, wird er den Prozessor demnächst in einen „Maingear PC“ einbauen, um dem Geheimnis auf die Spur kommen zu können.

    Quelle: AMD mit besonderer ?TWKR?-Black-Edition? - 15.06.2009 - ComputerBase

    nuja, ich hab nur keine langsame festplatte :D
    ich will mein raid verschlüsseln, unter windows arbeitet das ja einwandfrei mit mehreren cores zusammen, nur unter linux bin ich mir noch net so sicher, und ich hab keine lust auf ne handbremse am server ;)

    edit: also minimum 150mb/s müssen schon rumkommen, damit nix gebremst wird....

    heyho

    wie sieht das unter linux aus, welche varianten gibts dafür alles?
    das was mir natürlich direkt ins auge springt ist ne verschlüsselte LVM root partition sammt verschlüsselten datenpartitionen auch mit lvm.

    die frage die sich mir stellt, nutzen diese verfahren multicore support aus oder nicht?