- Danke für's zusehen
- Sie learnt gerade fuer die Pruefung, und geht zu Fuss zur Apotheke.
- Ich gehe in das Auto, aber Der Hund ist in dem Auto.
- Du machst nichts als das Bett, und gehst ins Bett.
- Du machst Laerm und Ich mache einen Salat, und Kaffe.
- Wir machen Ueberstunden, als keine Pause, und Ihr macht Urlaub.
- Das Fenster ist auf, aber die Tuer ist zu.
- Der Laptop ist an, aber der Monitor(?) ist aus.
- Der Kühlschrank unter ist leer, aber der Mülleimer oben ist voll.
- Der Aufzug ist da vorne, aber die Treppe ist da hinten.
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
* https://www.duetdisplay.com/ | |
* Sidecar | |
* Air Display 3 | |
* iDisplay |
- https://quizlet.com/354651919/german-a1-vocabulary-flash-cards/
- https://quizlet.com/246856350/german-a1-vocabulary-flash-cards/
- https://quizlet.com/25032987/german-a1-vocabulary-for-start-deutsch-1-flash-cards/
- https://quizlet.com/215558954/goethe-institute-a1-exam-vocabulary-flash-cards/
- https://quizlet.com/de/338958737/german-goethe-a1-vocab-flash-cards/
- https://quizlet.com/248614630/a1-goethe-flash-cards/
- Cintiq
- Astropad
- Air Stylus
- AIR DISPLAY
- Duet Display
- iDisplay
- AirParrot
- Deskreen, https://deskreen.com/
e22. Wie spät ist es? Wie viel uhr ist es? Eine woche hat 7 tage. Ein tag hat 24 stunden. Eine stunde hat 60 minuten. Eine minute hat 60 sekunden.
e23. Es ist mitternacht. Es ist viertel nach eins, funf vor zwei, halb zwei.
haben | beispiel |
---|---|
ich habe | wir haben |
du hast | ihr habt |
er/sie/es hat | Sie haben |
haben | beispiel |
---|---|
ich bin | wir sind |
du bist | ihr seid |
- https://towardsdatascience.com/attention-and-its-different-forms-7fc3674d14dc
- https://towardsdatascience.com/light-on-math-ml-attention-with-keras-dc8dbc1fad39
- https://www.tensorflow.org/tutorials/text/transformer
- https://www.tensorflow.org/api_docs/python/tf/keras/layers/Attention
- https://machinetalk.org/2019/04/29/create-the-transformer-with-tensorflow-2-0/
- https://www.kaggle.com/miljan/stock-predictions-with-multi-head-attention/notebook
- https://rubikscode.net/2019/07/29/introduction-to-transformers-architecture/
- https://rubikscode.net/2019/08/05/transformer-with-python-and-tensorflow-2-0-attention-layers/
- https://mchromiak.github.io/articles/2017/Sep/12/Transformer-Attention-is-all-you-need/#.Xi3LJY7YqEs
- https://mc.ai/transformer-architecture-attention-is-all-you-need-2/
model = keras.models.Sequential([
keras.layers.LSTM(20, return_sequences=True, input_shape=[None, 1]),
keras.layers.LSTM(20, return_sequences=True),
keras.layers.TimeDistributed(keras.layers.Dense(10))
])
model = keras.models.Sequential([
- cell or [memory cell]: [recurrent neuron], or [recurrent neuron layer].
- cell's state: h(t) = f(h(h-1), x(t)) vs. cell's output: y(t).
- rnn takes a sequence or the same vector, and produces a sequence -- all outputs except the last one may be ignored.
- [encoder-decoder] two-step model works much better than trying to translate on the fly with a seq-to-seq model.
- [backpropagation through time]
Impl: [simple rnn]
NewerOlder