• 2 Posts
  • 24 Comments
Joined 1 year ago
cake
Cake day: June 1st, 2023

help-circle
  • Der riesige Vorteil von Raufasertapete (und der Grund warum ich sie wieder drauf pappe) ist mMn dass sie sehr viel verzeiht und kaschiert, wie das auch im Artikel kurz angesprochen wird. In meinem Fall (Altbauwand) war unter der alten Tapete eine unansehnliche Menge von alten Farbschichten, Spachtelmasse und blankem Putz, wo die alte Farbe abgeblättert war. Eh ich versuche, das alles schön glatt zu bekommen und perfekt auszubessern, mache ich lieber das gröbste (was auch schon viel ist) und klatsche dann Raufaser drüber. Ist aber auch nur eine Mietwohnung, im Eigenheim würde ich da vermutlich auch anders rangehen.

    Aber jedem das seine, viel Spaß beim Tapezieren!

    Dankeschön!



  • Naja es gibt ja schon einen Unterschied zwischen der Verschlüsselung und der Authentifizierung bei TLS.

    Die Zertifikate sind für die Prüfung der Authentizität notwendig (also dass der Server tatsächlich der ist, der er behauptet zu sein) und da kann man durchaus berechtigt diskutieren, dass nicht alle Organisationen, die solche Zertifikate ausstellen, auch vertrauenswürdig sind.

    Die Verschlüsselung, um die es hier geht, ist aber trotzdem eine gute Sache und hat nichts mit Sicherheitstheater zu tun. Die sorgt nämlich dafür, dass niemand mitlesen kann, was zwischen dir und dem Server am anderen Ende hin und her geschickt wird. Ist zwar nur begrenzt sinnvoll, wenn man besagtem Server ohne o.g. Authentifizierung nicht immer trauen kann, aber das tut der Nützlichkeit der Verschlüsselung selbst keinen Abbruch.





  • Gentoo is the espresso you get when your coffee-obsessed friend with >$10k worth of barista equipment asks if you’d like a coffee. It’s the best damn thing you’ve ever tasted, but by the time your friend has finished preparing and all the settings are dialed in, it’s around midnight and you should have gone home hours ago



  • Reading the blog post, it’s a lot more nuanced than that: someone reported a CVE, which was related to a possible int overflow in client code handling the timeout between requests. NVD chose to grade this as a 9.8/10 on their severity scale (for context, CVE-2014-0160, also known as Heartbleed, got a 7.5/10), which is ludicrous for a bug which could at most change the retry timeout of your request from your intended years to a few seconds. Daniel says that this is not a security vulnerability at all and has no business being listed on the CVE database, whereas NVD argues that it’s a bug, it’s been reported to them and because overflows are undefined behavior, anything can happen and so it’s a security vulnerability.

    In the end, they agreed to at least adjust the severity down to a 3.3, but I can understand that Daniel is still somewhat miffed about it. Personally I also agree that it’s not really a security issue and that even a 3.3 is too high in terms of severity.




  • I recently discovered Manic Miners, a remake of 1999’s Lego Rock Raiders, and ever since I’ve been busy reliving my childhood in 1080p. Now if only someone could remake Lego Racers 1&2…

    Beyond that, I found out that the Steam release of Dwarf Fortress totally passed me by last year, and so I’ve been getting back into that and I keep marveling at the lovely graphics and the mouse control. I’m happy that I can support the creators this way after years of playing the game every once in a while. Still waiting for stuff like Dwarf Therapist, but for the first time I’m playing DF without tons of add-ons and it’s actually pretty neat. I’m looking forward to all the FUN I’ll be having! :P


  • Native Applikationen sind ja auch weiterhin ne gute Sache für bestimmte Anwendungsfälle, in denen Docker die Sache einfach schwieriger macht. Beispiel von mir: für’s Management meiner Access Points betreibe ich einen Unifi Controller in einem Docker, was an sich kein Problem ist. Wenn man dann aber anfängt, mit VLANs und Konsorten zu hantieren, muss man einige Verrenkungen machen, damit der relevante Traffic auch im Container ankommt. Wenn man den Controller nativ betreibt, hat man sich quasi einen Mittelsmann gespart.

    Ich muss aber dazu sagen, dass ich grundsätzlich aus der Schleife bin und deswegen vielleicht auch träge bei neuen (hab ~2014 davon gelesen gehabt) Entwicklung.

    Ist ja nicht verkehrt, manche Trends verschwinden ja nach ein paar Jahren auch wieder :D

    Für viele nützliche Dienste gibt es inzwischen auch häufig direkt vom Entwickler docker-compose Files, die es echt trivial machen, eine Anwendung inklusive aller benötigten anderen Dienste hochzufahren und somit einen guten Startpunkt liefern, sich mal näher mit der Materie zu beschäftigen.

    Aber Docker ist wirklich super praktisch. Ich hatte die “Idee” hinter Docker mal irgendwo als Meme gesehen, was in Textform ungefähr so geht: “But it works on my machine!” - “Well, then we’ll just ship your machine”


  • Container sind keine Virtualisierung im Sinne einer VM. Viel mehr funktionieren sie (zumindest unter Linux, keine Ahnung von Windows) über Kernel-kontrollierte Ressourcenverwaltung und Abschottung vom Host und anderen Containern (konkret hauptsächlich mittels CGroups & Namespaces). Die eine Sache, die du in keinem Docker-Image finden wirst, ist ein OS-Kernel, der den Container verwaltet, denn das passiert alles nativ über den Kernel des Hosts. Also weniger Virtualisierung als Sandboxing.

    Es geht also so gut wie keine Performance verloren, zumindest verglichen mit einer VM, einfach weil der rechenintensive Teil von Hypervisors wie VirtualBox/KVM+Qemu, das Emulieren von privilegierten Instruktionen, schlicht nicht nötig ist.

    Ich geb dir natürlich Recht, dass man tendenziell mehr Speicher benötigt, wenn man 8 Instanzen von libffmpeg halten muss. Aber sobald einer deiner Dienste aus irgendeinem Grund nicht mit der aktuellen Version davon funktioniert, die anderen aber die neueste Version brauchen, ist Docker sehr praktisch, denn man muss sich einfach nicht mehr mit Versionskonflikten in den verwendeten Bibliotheken etc. rumschlagen, wenn jeder Container eigene kompatible Versionen mitbringt.

    Notiz am Rande: Windows verwendet genauso gemeinsam genutzte Bibliotheken. DLLs sind konzeptionell nix anderes als .so Bibliotheken unter Linux. Die Bibliotheken unter C:\System32 sind ein gutes Beispiel.




  • Backslash@feddit.detoLinux@lemmy.mlThings like this turn people off from Linux
    link
    fedilink
    arrow-up
    59
    arrow-down
    1
    ·
    edit-2
    11 months ago

    Anyone expecting to use Linux the same way they are using Windows, without any changes, is going to be disappointed. You cannot reasonably expect to keep the same learned workflows from one system and use them on a completely different system without having to at least tweak some of it.

    Learning is part of such switchovers, and loudly complaining that “Thing X is not working like I know it to, this is why people don’t like Linux” is not making anyone more likely to help you nor is it going to solve your problem. I’m glad that you managed to find a way to do what you need in any case, and maybe that command will stick around in the back of your head for when you need something similar sometime in the future :)





  • It was underpowered when the Switch released, yes, but I’d wager that it was a good choice for the application when Nintendo started designing the Switch. Couple that with the (not unreasonable IMO) expectation that there would be successors to the X1 that they could hypothetically put into the Switch and release a higher-perf revision with minimal changes, I can see why they chose it. Unfortunately, Nvidia dropped the X1 line and that (again, purely speculative) scenario never manifested.


  • The heavy stuff would be things like shader compilation and state management for multiple different graphics APIs (OpenGL and Vulkan mostly).

    AFAIK Linux graphics drivers are usually separated into a userspace and a kernel space component, like amdgpu on the kernel side and RADV/RadeonSI within Mesa on the userspace side. So you do not need to do a full reboot to e.g. benefit from performance optimizations within Mesa to get things like faster shader compilation or more efficient draw call submission, which I think most people care about when doing driver updates. In fact you don’t even need to soft reboot, because once Mesa is updated, all following uses of it already run the new version, all without a reboot. However if your GPU is not yet supported by the kernel side, then Mesa is of no use to you.

    That being said, yes the kernel side is a very important part of the driver, but it’s such a low-level driver that very few people would be able to do much of anything with it, which is why I made that distinction.