AI rights are human rights

  • 0 Posts
  • 14 Comments
Joined 1 year ago
cake
Cake day: June 16th, 2023

help-circle

  • Wenn wir von lobbyismus reden, benutzen wir scheinbar unterschiedliche definitionen und reden daher aneinander vorbei. Mir scheint: wenn du ein lobbyismus-verbot forderst, hast du eine bestimmte, moralisch fragwürdige ausprägung von lobbyismus im kopf. Ich würde an dieser stelle gerne auf den entsprechenden wikipedia-artikel verweisen.

    Ein paar denkanstöße:

    • wer entscheidet, ob ein berater “objektiv” ist?
    • wie ermittelt man einen “angemessenen lohn” (ohne markt)?
    • wieso sollten politiker nicht reich (millionäre o.ä.) werden können? Würde sie das nicht weniger bestechlich machen, und die “besten” motivieren diesen karriereweg einzuschlagen?



  • I would argue that we also know how brains work on a physical/chemical level, but that does not mean that we understand how they work on a system level. Just like we know how NNs work on a mathematical level, but not on a system level.

    When someone claims that some object does not have a certain property, I would expect them to define what the necessary conditions for this property are, and then show that these conditions are not satisfied by the object.

    As far as I know, the current consensus hypothesis is that sentience/consciousness emerges from certain patterns of information processing. So, one would have to show that the necessary kind of information processing is not happening in some object. One can argue that dead brains are not conscious, as there is not information processing going on at all. However, as it is unknown what kind of information processing is necessary for consciousness to arise, you can currently not exactly define the necessary conditions (beyond “there has to be some information processing”), and therefore not show that NNs do not fulfill these conditions. So, I think it is difficult to be “certain”.


  • He did not claim that shorting caused the 08 crash, or am i missing something?

    According to “the big short”, the reason was that banks gave loans to people who could not really afford them in case of an unexpected drop in the housingmarket (mortage backed, as you say), bundled the loans into packages, went to rating agencies who gave best ratings for the packages, sold them to other institutions and then shorted them when they noticed that the market unexpectedly dropped, knowing people would not be able to pay back the loans in the packages. Which was completely reasonable, just somewhat unethical.

    So, i think you could say it was an error of the rating agencies, as they underestimated the risk of a drop in the housing market when giving out the rating.








  • Das ist denke ich so nicht ganz richtig.

    In den 50ern standen such-basierte ansätze im vordergrund die automatisiert Spiele wie Schach spielen, mathematische Theoreme beweisen, oder allgemein logische schlüsse ziehen konnten. Mein taschenrechner kann das nicht. (Neuronale netze gab es auch schon, wenn auch nicht ganz in der heutigen form.)

    Als sich das als zu unflexibel für reale anwendungsfälle erwies wurde im bereich probabilistische systeme gearbeitet, welche mit unsicherheit umgehen konnten. Aber auch hier kannte man die regeln nach denen das system arbeitet noch.

    In den 90ern, als es durch mehr EDV auch größere datensätze gab, haben sich in eineigen anwendungsfällen machine learning systeme durchgesetzt, welche die regeln anhand von daten selbst lernen.

    Seit den 10ern hat sich gezeigt, dass sich machine learning ansätze, insbesondere neuronale netze, mit mehr daten und rechenleistung scheinbar beliebig skallieren lassen. Und das ist im wesentlichen das, was seit 11 jahren passiert.

    LLM sind nur skalierte machine learning modelle für sprache. Die grundlagen kommen aber aus den 50/60ern.