• 0 Posts
  • 8 Comments
Joined 1 year ago
cake
Cake day: June 17th, 2023

help-circle
  • I agree with your sentiment, but I wouldn’t call activism (and especially not journalism) a wasted effort in that regard. Bringing issues to light is the first step in creating a visible dent in the balance sheets. Public perception shapes consumer behavior to some degree and can put pressure on lawmakers to introduce legislation against harmful conduct. On the other hand, if the general public only hears the company’s side of the story underlining how clean and ethical they are, there will never be any pressure for change.




  • Not quite ELI5 but I’ll try “basic understanding of calculus” level.

    The GPT model learns complex relationships between words (or tokens to be more specific, explained below) as probability scores ranging from 0 to 1. In very broad terms, you could think of these as the likelihood of one word appearing next to another in the massive amounts of text the model was trained with: the words “apple” and “pie” are often found together, so they might have a high-ish probability of 0.7, while the words “apple” and “chair” might have a lower score of just 0.2. Recent GPT models consist of several billions of these scores, known as the weights. Once their values have been estabilished by feeding lots of text through the model’s training process, they are all that’s needed to generate more text.

    When feeding some input text into a GPT model, it is first chopped up into tokens that are each given a number: for example, the OpenAI tokenizer translates “Hello world!” into the numbers [15496, 995, 0]. You can think of it as the A=1, B=2, C=3… cipher we all learnt as kids, but with numbers also assigned to common words, syllables and punctuation. These numbers are then inserted into a massive system of multivariable equations where they are multiplied together with the billions of weights of the model in a specific manner. This results in probability scores for each token known by the model, and one of the tokens with the highest scores is chosen as the model’s output semi-randomly. This cycle is then repeated over and over to generate text, one token at a time.


  • Jos ilmastoa ei oteta huomioon, niin mitä tarjoaisit ratkaisuksi, jotta sinunlaisesi jäisivät tyytyväisinä Suomeen? Näkisin meidän talousongelmien kumpuavan ennen kaikkea väestönrakenteen vinoumasta, ja kierrehän vain syvenee, jos trendiksi muodostuu ottaa täältä ilmainen korkeakoulutus, mutta kaikota maasta ja tehdä lapset muualle siinä kohtaa kun investointi olisi tarkoitus maksaa takaisin. Hommahan kuitenkin pyörii sillä oletuksella, että osan kansasta kohdalla investointi jää väkisin syystä tai toisesta miinukselle, mutta osalla taas riittää rahkeet niihin “hyviin hommiin” joilla tappiot katetaan.

    Itse ajattelen, että meikäläisen verorahoilla subventoidaan niitä vähemmän tuottavia, mutta silti yhteiskunnan pyörimisen kannalta tärkeitä matalapalkka-ammatteja, ja tarjotaan työttömille turvaverkko josta ainakin toivottavasti valtio jää plussan puolelle (joo, osa rottailee, mutta osa työllistyy, ja esim kodittomuuden aiheuttamat lieveilmiöt poistuvat kun kaikilla on edes katto pään päällä). Itselle jää silti rahaa kaikkeen mitä elämiseen ja harrastamiseen tarvitsee, ja kohtuullisesti vielä säästöön. Joo, ei yhtä paljon kuin jos muuttaisin Jenkkeihin koodaamaan, mutta hittoako sillä rahalla tekee? Kyllä täälläkin pystyisi näillä palkoilla menemään yksityselle terveydenhuoltoon jos tarve vaatisi, ja yksityiskouluja karsastan vahvasti: koen hienona juttuna, että sain omassa lapsuudessani kaveerata monenlaisten perheiden lasten kanssa, enkä tahtoisi sulkea omiani mihinkään rikkaiden eliittikuplaan. Minun ei täällä tarvitse säästää lasteni yliopistomaksuihin tai yllättävän työkyvyttömäksi ajavan sairauden varalle, ja kyseenalaistan kalliden autojen, huviveneiden jne. olevan elämänonnellisuuden kannalta merkityksellisiä hankintoja. Vähemmälläkin pärjää, ja tulisikin pärjätä, jotta seuraavillekin sukupolville riittää.



  • I’m currently maintaining a multi million line VB.NET code base, the foundations of which were hastily laid down by young and inexperienced devs realizing a business opportunity in the early 2000s. Lots of these out there in the enterprise world from what I hear and I think this is where there the language gets its reputation from. Sure, at its best it’s just C# with words in place of curly braces, but that’s only the case with well disciplined programmers (and even then, why not just use C#?). Option Strict is, well, just an option, and even the infamous On Error Resume Next is still usable in VB.NET to this day afaik. A lot more room for shooting yourself (or the next person reading your code) in the foot if you don’t know what to look out for.