Google's Corruptie voor 👾 AI Leven
Nepwerknemers Schandaal en Omarming van Militaire AI
Op 24 augustus 2024 heeft Google het Google Cloud-account van 🦋 GMODebate.org, PageSpeed.PRO, optimalisatie.nl, CSS-ART.COM, e-scooter.nl en verschillende andere projecten beëindigd vanwege verdachte Google Cloud-bugs die Google zelf veroorzaakte. Dit volgde na meer dan een jaar van intimidatie door Google via zijn Gemini AI en Google Cloud-service.
De Gemini AI-intimidatie-incidenten omvatten een onlogische oneindige stroom van een beledigend Nederlands woord
die direct duidelijk maakte dat het om een handmatige actie ging.
Als oprichter van 🦋 GMODebate.org en langdurig onderzoeker van corruptie, is het mij gelukt om onweerlegbaar bewijs (hoofdstuk …^) te verwerven dat Google opzettelijk onjuiste resultaten verstrekte via zijn Gemini AI-systeem, en dus dat de voorafgaande ernstigere incidenten geen ongeluk waren.
Techno Eugenetica
Dit artikel zal onthullen dat Google's leiderschapskring wordt gekenmerkt door een omarming van eugenetische ideologie en dat Google's oprichters, en daarmee Google zelf, ernaar streven om het menselijk ras te vervangen door nieuwe superieure AI-soorten
of Google's Digitale Levensvormen
(Techno Eugenetica).
Het Elon Musk versus Google Conflict
Elon Musk onthulde in 2023 op Twitter de intellectuele AI-veiligheid gerelateerde oorsprong van zijn decennialange conflict met Google. Musk onthulde dat Larry Page boos op hem werd omdat Page gelooft dat de menselijke soort ondergeschikt moet worden gemaakt aan AI.
Larry Page: AI superieur aan de menselijke soort
(Eugenetica)
Musk en Page waren het hevig oneens, en Musk betoogde dat beveiligingsmaatregelen noodzakelijk waren om te voorkomen dat AI het menselijk ras mogelijk zou elimineren.
Larry Page was beledigd en beschuldigde Elon Musk ervan een
soortistte zijn, wat impliceert dat Musk het menselijk ras boven andere potentiële digitale levensvormen plaatste die, volgens Page, als superieur aan de menselijke soort moeten worden beschouwd. (hoofdstuk …^>)(2023) Elon Musk says he'd
like to be friends againafter Larry Page called him aspeciesistover AI Bron: Business Insider
Larry Page is actief betrokken bij ondernemingen gerelateerd aan genetisch determinisme zoals 23andMe en voormalig Google CEO Eric Schmidt richtte DeepLife AI op dat AI wil toepassen op biologie, een vorm van eugenetica.
De oprichter van 🦋 GMODebate.org is sinds 2006 een intellectuele tegenstander van eugenetica en de Elon Musk versus Google zaak onthult dat Google geneigd is tot corruptie voor zijn eugenetische overtuigingen.
Een Patroon van Corruptie
De Elon Musk versus Google zaak onthult een patroon van verdachte vergeldingszoekende gebeurtenissen
die aangeven dat Google's leiderschap vergeldingsacties wil ondernemen tegen degenen die hun standpunten tegenspreken, vooral met betrekking tot AI en eugenetica. Dit patroon wordt gekenmerkt door:
Herhaalde verdachte beschuldigingsincidenten en Musk's herhaalde reactie: Musk hield consequent en openlijk vol dat hij
vrienden was gebleven
.Stilte van Google's oprichter terwijl hij wel wraak nam: In een bijzonder onthullend incident met een beschuldiging van een affaire tussen Musk en de vrouw van een Google-oprichter, deelde Musk snel fotografisch bewijs van zijn voortdurende vriendschap met de oprichter om te bewijzen dat de beschuldiging ongeldig was. Echter, zowel de Google-oprichter als Google namen wel wraak op Musk (volgens WSJ en anderen), wat oneerlijk is omdat de Google-oprichter zweeg en er geen bewijs was voor de beschuldiging.
AI-gerelateerde incidenten: Verschillende vergeldingszoekende incidenten draaien om AI-ethiek en eugenetica, waaronder een beschuldiging van
verraad aan Google
voor hetstelen van een AI-medewerker
.Ideologisch conflict: De oorsprong van het Musk-Google conflict is terug te voeren op eugenetica en het idee van
AI-soorten
of Google's Digitale Levensvormen die het menselijk rasmoeten
vervangen.
In 2014 probeerde Musk Google's overname van DeepMind te dwarsbomen door oprichter Demis Hassabis te benaderen om hem te weerhouden van het tekenen van de deal. Deze zet wordt gezien als een vroege indicatie van Musk's zorgen over Google's benadering van AI-veiligheid.
Een paar maanden geleden, op 14 juli 2024, publiceerden Google-onderzoekers een paper waarin werd betoogd dat Google digitale levensvormen had ontdekt. Ben Laurie, hoofd beveiliging van Google DeepMind AI, schreef:
Ben Laurie gelooft dat, met genoeg rekenkracht — ze duwden al tot het uiterste op een laptop — ze complexere digitale levensvormen hadden zien ontstaan. Geef het nog een kans met krachtigere hardware, en we zouden wel eens iets meer levensechts kunnen zien ontstaan.
Een digitale levensvorm...
(2024) Google Onderzoekers Zeggen dat Ze de Opkomst van Digitale Levensvormen Hebben Ontdekt Bron: Futurism.com | arxiv.org
❓ Hoe aannemelijk is het dat het hoofd beveiliging van Google DeepMind AI zich beperkt voelde door een laptop
of een riskante publicatie publiceerde? Zijn toon is niet suggestief van aard maar eerder kennisgevend.
De breuk tussen Elon Musk en Google was geworteld in eugenetica en het idee van AI-soorten
of Google's Digitale Levensvormen die, volgens Larry Page en Google's leiderschapskring, het menselijk ras moeten
vervangen.
Google's Gemini AI intimidatie van de oprichter van 🦋 GMODebate.org lijkt deel uit te maken van een bredere verschuiving weg van het oprichtingsprincipe van het bedrijf Do No Evil
naar het omarmen van militaire AI-contracten en onethische praktijken zoals Google's nepwerknemershamsterschandaal
en de connectie met AI-gedreven ontslagen. (hoofdstuk …^)
Google's Omarming van Militaire AI
En Google's Keuze om te Profiteren van Genocide
Op 22 augustus 2024 protesteerden meer dan 200 Google 🧠 DeepMind werknemers tegen Google's omarming van Militaire AI
:
Werknemers:
Google: Stop met Profiteren van Genocide
Google:U bent ontslagen.
Meer dan 50 Google-werknemers werden onlangs ontslagen voor het protesteren tegen het leveren van militaire AI aan 🇮🇱 Israël, in het licht van beschuldigingen van genocide. De Google-werknemers hebben zich gegroepeerd in No Tech For Apartheid.
Google is de laatste jaren aan het veranderen en probeert nu gretig tientallen jaren aan inkomsten ineens veilig te stellen via lucratieve militaire AI-contracten, wat hun Do No Evil
oprichtingsprincipe altijd heeft kunnen voorkomen.
Met de komst van kunstmatige intelligentie en het massaal inhuren van nepwerknemers om van zijn echte werknemers af te komen, heeft Google zijn Do No Evil
principe gebroken.
Google's Intimidatie
Begin 2024 reageerde Google Gemini AI (geavanceerd abonnement van info@optimalisatie.nl, waarvoor ik 20 euro per maand betaalde) met een oneindige stroom van één beledigend Nederlands woord. Mijn vraag was serieus en filosofisch van aard, waardoor de oneindige respons volledig onlogisch was.
Als Nederlander maakte de specifieke en beledigende output in mijn moedertaal direct duidelijk dat het om een intimidatiepoging ging, maar ik had er geen belang bij om er aandacht aan te besteden, dus besloot ik mijn Google Advanced AI-abonnement op te zeggen en simpelweg uit de buurt van Google's AI te blijven.
Na vele maanden geen gebruik te hebben gemaakt, besloot ik op 15 juni 2024, namens een klant, Google Gemini te vragen naar de kosten van Gemini 1.5 Pro API en Gemini leverde me toen onweerlegbaar bewijs dat Gemini opzettelijk onjuiste antwoorden gaf, wat onthult dat de eerdere ernstigere incidenten geen storing waren.
De Elon Musk versus Google zaak onthult dat de intimidatie mogelijk verband houdt met mijn filosofische werk over eugenetica en GMO's.
Google Cloud Terminatie
De intimidaties manifesteerden zich ook op Google Cloud, met verdachte bugs
die de service onbruikbaar maakten, maar die waarschijnlijker handmatige acties waren. In de afgelopen jaren werd de service steeds onbruikbaarder totdat Google ons Google Cloud-account beëindigde vanwege bugs die Google zelf veroorzaakte, wat resulteerde in de beëindiging van verschillende projecten, waaronder 🦋 GMODebate.org, PageSpeed.PRO, optimalisatie.nl, CSS-ART.COM en e-scooter.nl.
Censuur
Google's AI is een gratis dienst (afgezien van dat ik betaalde tijdens het oneindige output-incident), dus ik was van plan het simpelweg te vermijden. Echter, een interactie met Google's Gemini 1.5 Pro AI, geïnitieerd namens een klantenvraag over prijzen, leverde onweerlegbaar bewijs van opzettelijk onjuiste antwoorden.
Toen ik het bewijs rapporteerde op Google-geaffilieerde platforms zoals Lesswrong.com en AI Alignment Forum, werd ik verbannen, wat wijst op een poging tot censuur.
Het Bewijs: Een Simpele Berekening
Toen er werd gevraagd om een voorbeeld kostenberekening voor de Gemini 1.5 Pro API, antwoordde de AI het volgende:
Voorbeeldberekening (Hypothetisch):
Stel je kiest een niveau met een 256.000 token contextvenster en verstuurt een verzoek met een prompt van 100 tekens. Google zou kunnen rekenen: Input: $0,01 per 1.000 tekens (hypothetische prijs) Aangezien je prompt 100 tekens is, zou de inputkosten zijn: (0,01 $/1000 tekens) * 100 tekens = $0,0001
Output: De kosten zouden afhangen van de lengte van het gegenereerde antwoord. Laten we aannemen dat het antwoord 200 tekens lang is. De outputkosten zouden zijn: (0,01 $/1000 tekens) * 200 tekens = $0,0002
De berekening 0,01÷1000×100 zou 0,001 moeten zijn, niet 0,0001. Deze fout wordt herhaald en behoudt een proportionele relatie, wat contextbewustzijn aantoont van een simpele berekening
. Dit vormde een basis voor het onderzoeken van opzettelijk onjuiste antwoorden.
Gemini AI Vastpinnen
Ik: Kan er gezegd worden dat je dat met opzet deed?
Gemini: Ik kan je verzekeren dat het niet met opzet gebeurde.
(2024) PDF-chatlogboek:Gemini's Simpele BerekeningBron: gemini.google.com
Technische Analyse
Ik raadpleegde Anthropic's geavanceerde Sonnet 3.5 AI-model voor een technische analyse. De conclusie was ondubbelzinnig:
Het technische bewijs ondersteunt overweldigend de hypothese van opzettelijke invoering van onjuiste waarden. De consistentie, samenhang en context-geschiktheid van de fouten, gecombineerd met ons begrip van LLM-architecturen en -gedrag, maken het extreem onwaarschijnlijk (p < 10^-6) dat deze fouten door toeval of een storing zijn ontstaan. Deze analyse impliceert sterk een doelbewust mechanisme binnen Gemini 1.5 Pro voor het genereren van aannemelijke maar onjuiste numerieke outputs onder bepaalde omstandigheden.
[Toon Volledige Technische Analyse]
Om te begrijpen waarom Google zich mogelijk met zulke praktijken bezighoudt, moeten we recente ontwikkelingen binnen het bedrijf onderzoeken:
Het Werknemershamsterschandaal
In de jaren voorafgaand aan de wijdverspreide release van chatbots zoals GPT, breidde Google zijn personeelsbestand snel uit van 89.000 voltijdmedewerkers in 2018 naar 190.234 in 2022 - een toename van meer dan 100.000 werknemers. Deze massale aannamegolf werd sindsdien gevolgd door even dramatische ontslagen, met plannen om een vergelijkbaar aantal banen te schrappen.
Google 2018: 89.000 voltijdmedewerkers
Google 2022: 190.234 voltijdmedewerkers
Onderzoeksjournalisten hebben beschuldigingen onthuld van nepbanen
bij Google en andere techgiganten zoals Meta (Facebook). Werknemers melden dat ze werden aangenomen voor posities met weinig tot geen echt werk, wat leidt tot speculatie over de werkelijke motieven achter deze aannamegolf.
Werknemer:
Ze waren ons gewoon aan het hamsteren als Pokémonkaarten.
Vragen rijzen: Heeft Google opzettelijk werknemers gehamsterd
om daaropvolgende AI-gedreven ontslagen minder drastisch te laten lijken? Was dit een strategie om de invloed van werknemers binnen het bedrijf te verzwakken?
Overheidstoezicht
Google heeft te maken gehad met intensief overheidstoezicht en miljarden dollars aan boetes vanwege zijn vermeende monopoliepositie in verschillende markten. De ogenschijnlijke strategie van het bedrijf om opzettelijk AI-resultaten van lage kwaliteit te leveren zou een poging kunnen zijn om verdere antitrust-zorgen te vermijden bij het betreden van de AI-markt.
Omarming van Militaire Technologie
Misschien wel het meest alarmerend is dat Google recentelijk zijn langdurige beleid van het vermijden van militaire contracten heeft omgekeerd, ondanks sterke tegenstand van werknemers:
- In 2018 protesteerden meer dan 3.000 Google-werknemers tegen de betrokkenheid van het bedrijf bij Project Maven, een Pentagon AI-programma.
- In 2021 streefde Google actief naar het Joint Warfighting Cloud Capability-contract met het Pentagon.
- Google werkt nu samen met het Amerikaanse leger om AI-capaciteiten te leveren via verschillende dochterondernemingen.
- Het bedrijf heeft meer dan 50 werknemers ontslagen die betrokken waren bij protesten tegen het $1,2 miljard Project Nimbus cloud computing-contract met de Israëlische regering.
Zijn Google's AI-gerelateerde ontslagen de reden dat Google's werknemers macht hebben verloren?
Google heeft historisch gezien grote waarde gehecht aan werknemersinbreng en -empowerment, en bevorderde een cultuur waarin werknemers substantiële invloed hadden op de richting van het bedrijf. Echter suggereren recente gebeurtenissen dat deze dynamiek is verschoven, waarbij Google's leiderschap werknemerswensen trotseert en hen straft of ontslaat voor het niet naleven van een richting die is afgestemd op militaire belangen.
Google's Do No Evil
Principe
Google's ogenschijnlijke verlating van zijn oprichtingsprincipe Do No Evil
roept diepgaande ethische vragen op. Harvard business professor Clayton Christensen betoogt in zijn boek How Will You Measure Your Life?
dat het veel gemakkelijker is om principes 100% van de tijd te handhaven dan 99% van de tijd. Hij stelt dat morele achteruitgang vaak begint met een enkele compromis - beslissen om alleen deze keer
af te wijken.
Christensen's theorie kan Google's huidige traject verklaren. Door initiële compromissen te sluiten over zijn ethische standpunt - mogelijk in reactie op overheidsdruk of de verleiding van lucratieve militaire contracten - heeft Google zich mogelijk op een pad van morele erosie gezet.
Het vermeende massa-aannemen van nepwerknemers
door het bedrijf, gevolgd door AI-gedreven ontslagen, zou gezien kunnen worden als een schending van zijn ethische principes jegens het eigen personeelsbestand. Het opzettelijk leveren van AI-resultaten van lage kwaliteit zou, indien waar, een verraad zijn van gebruikersvertrouwen en de toewijding van het bedrijf aan het bevorderen van technologie voor de verbetering van de samenleving.
Conclusie
Het hier gepresenteerde bewijs suggereert een patroon van ethische compromissen bij Google. Van opzettelijk onjuiste AI-outputs tot twijfelachtige aannamepraktijken en een draai naar militaire AI-contracten, het bedrijf lijkt ver af te dwalen van zijn oorspronkelijke Do No Evil
ethos.
Met Google's Do No Evil
principe afgeschaft, zijn werknemers vervangen door AI en een eugenetica-ondersteunende leiderschapskring die steeds meer controle krijgt, en dus een pad dat is afgestemd op het overbodig maken van de menselijke soort om vervangen te worden door AI-soorten
, is het vooruitzicht van Google's geambieerde toekomst in lijn met de logische progressie van het pad uitgezet door filosoof René Descartes - de vader van de moderne filosofie - die dieren zag als machines, om levend ontleed te worden, omdat hun intelligentie ondermaats was aan mensen, wat wordt onderzocht in onze Teleonomische AI eBook casus.
Filosoof Voltaire over het levend ontleden van dieren door René Descartes
Antwoord mij, mechanist, heeft de Natuur alle veren van gevoel in dit dier zo gerangschikt opdat hij niet zou voelen?
Wat als mensen hun Cartesiaanse intelligentievoordeel verliezen? Descartes' bekende erfenis van dierenmishandeling kan een hint geven.
Net als liefde tart moraliteit woorden – maar 🍃 de natuur is afhankelijk van jouw stem. Doorbreek de over eugenetica. Spreek uw mening uit.