Skip to content

Instantly share code, notes, and snippets.

@machal
Created March 31, 2023 06:55
Show Gist options
  • Save machal/36003707cc590279bef108d83efe6982 to your computer and use it in GitHub Desktop.
Save machal/36003707cc590279bef108d83efe6982 to your computer and use it in GitHub Desktop.
Pause Giant AI Experiments: An Open Letter (česky)

Pause Giant AI Experiments: An Open Letter (česky)

Systémy umělé inteligence s lidskou inteligencí mohou pro společnost a lidstvo představovat vážná rizika, jak ukázal rozsáhlý výzkum[1] a jak uznávají špičkové laboratoře umělé inteligence.Jak se uvádí v široce schválených zásadách umělé inteligence Asilomar, pokročilá umělá inteligence by mohla představovat zásadní změnu v historii života na Zemi a měla by být plánována a řízena s odpovídající péčí a prostředky. Bohužel k takovému plánování a řízení nedochází, přestože v posledních měsících se laboratoře umělé inteligence ocitly v nekontrolovatelném závodě o vývoj a nasazení stále výkonnějších digitálních myslí, které nikdo - ani jejich tvůrci - nedokáže pochopit, předvídat ani spolehlivě kontrolovat.

Současné systémy umělé inteligence se nyní stávají v obecných úkolech konkurenceschopnými vůči lidem[3] a my si musíme položit otázku: Měli bychom nechat stroje, aby zaplavily naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna zaměstnání, včetně těch, která nás naplňují? Měli bychom vyvinout nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací? Taková rozhodnutí nelze svěřovat nevoleným technickým vůdcům. Výkonné systémy umělé inteligence bychom měli vyvíjet až poté, co si budeme jisti, že jejich účinky budou pozitivní a rizika zvládnutelná. Tato důvěra musí být dobře odůvodněná a musí se zvyšovat s rozsahem potenciálních účinků systému. V nedávném prohlášení organizace OpenAI týkajícím se obecné umělé inteligence se uvádí, že "v určitém okamžiku může být důležité získat nezávislý posudek před zahájením tréninku budoucích systémů a u nejpokročilejších snah se dohodnout na omezení rychlosti růstu výpočetní kapacity používané pro vytváření nových modelů.". Souhlasíme. Tento okamžik nastal nyní.

Vyzýváme proto všechny laboratoře umělé inteligence, aby okamžitě alespoň na 6 měsíců pozastavily výcvik systémů umělé inteligence výkonnějších než GPT-4. Tato pauza by měla být veřejná a ověřitelná a měla by zahrnovat všechny klíčové aktéry. Pokud se takovou pauzu nepodaří rychle zavést, měly by zasáhnout vlády a zavést moratorium.

Laboratoře umělé inteligence a nezávislí odborníci by měli tuto pauzu využít ke společnému vypracování a zavedení souboru sdílených bezpečnostních protokolů pro návrh a vývoj pokročilé umělé inteligence, které by byly přísně kontrolovány a dozorovány nezávislými externími odborníky. Tyto protokoly by měly zajistit, že systémy, které se jimi řídí, jsou nade vší pochybnost bezpečné."[4] To neznamená pauzu ve vývoji AI obecně, pouze ústup od nebezpečného závodu za stále většími nepředvídatelnými modely typu black-box s emergentními schopnostmi.

Výzkum a vývoj umělé inteligence by se měl znovu zaměřit na to, aby dnešní výkonné a nejmodernější systémy byly přesnější, bezpečnější, interpretovatelnější, transparentnější, robustnější, sladěnější, důvěryhodnější a loajálnější.

Souběžně s tím musí vývojáři AI spolupracovat s tvůrci politik na výrazném urychlení vývoje robustních systémů řízení AI. Ty by měly zahrnovat přinejmenším: nové a schopné regulační orgány věnující se AI; dohled a sledování vysoce výkonných systémů AI a velkých fondů výpočetních kapacit; systémy provenience a vodoznaků, které pomohou rozlišit skutečné systémy od syntetických a sledovat úniky modelů; robustní ekosystém auditu a certifikace; odpovědnost za škody způsobené AI; robustní veřejné financování technického výzkumu bezpečnosti AI; a dobře vybavené instituce pro zvládání dramatických ekonomických a politických narušení (zejména demokracie), která AI způsobí.

Lidstvo se může těšit na prosperující budoucnost s AI. Poté, co se nám podařilo vytvořit výkonné systémy AI, si nyní můžeme užívat "léto AI", kdy budeme sklízet plody, konstruovat tyto systémy k jasnému prospěchu všech a dávat společnosti šanci se přizpůsobit. Společnost si dala pauzu v případě jiných technologií s potenciálně katastrofálními dopady na společnost[5], můžeme tak učinit i zde. Užívejme si dlouhé léto s umělou inteligencí, nikoliv spěchejme nepřipraveni na podzim.

Translated with www.DeepL.com/Translator (free version)

Zdroj: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

@machal
Copy link
Author

machal commented Mar 31, 2023

Notes and references
[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2]

Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment