Skip to content

Instantly share code, notes, and snippets.

* https://www.duetdisplay.com/
* Sidecar
* Air Display 3
* iDisplay
  • Danke für's zusehen
  • Sie learnt gerade fuer die Pruefung, und geht zu Fuss zur Apotheke.
  • Ich gehe in das Auto, aber Der Hund ist in dem Auto.
  • Du machst nichts als das Bett, und gehst ins Bett.
  • Du machst Laerm und Ich mache einen Salat, und Kaffe.
  • Wir machen Ueberstunden, als keine Pause, und Ihr macht Urlaub.
  • Das Fenster ist auf, aber die Tuer ist zu.
  • Der Laptop ist an, aber der Monitor(?) ist aus.
  • Der Kühlschrank unter ist leer, aber der Mülleimer oben ist voll.
  • Der Aufzug ist da vorne, aber die Treppe ist da hinten.
@logkcal
logkcal / ipad.md
Last active February 13, 2021 00:11
@logkcal
logkcal / german.md
Last active February 12, 2020 10:32

e22. Wie spät ist es? Wie viel uhr ist es? Eine woche hat 7 tage. Ein tag hat 24 stunden. Eine stunde hat 60 minuten. Eine minute hat 60 sekunden.

e23. Es ist mitternacht. Es ist viertel nach eins, funf vor zwei, halb zwei.

@logkcal
logkcal / a1 - a2.md
Last active February 4, 2020 12:52
Learn German
haben beispiel
ich habe wir haben
du hast ihr habt
er/sie/es hat Sie haben
haben beispiel
ich bin wir sind
du bist ihr seid
@logkcal
logkcal / 1.md
Last active January 23, 2020 08:11

PD: Priority Date.

  • 이선경: July 2013.
  • F4: (가족 4순위): 미국 시민의 형제, 자매.
  • F2A: 영주권자의 배우자와 미성년 자녀.
  • F2B: 영주권자의 21세 이상 미혼 자녀.

이민 비자 [visa-bulletin 2020/01]

기족 초청 | PD | 남은 시간

@logkcal
logkcal / 1.md
Last active January 23, 2020 08:58
model = keras.models.Sequential([
  keras.layers.LSTM(20, return_sequences=True, input_shape=[None, 1]),
  keras.layers.LSTM(20, return_sequences=True),
  keras.layers.TimeDistributed(keras.layers.Dense(10))
])
model = keras.models.Sequential([

15. Processing Sequences Using RNNs and CNNs

  • cell or [memory cell]: [recurrent neuron], or [recurrent neuron layer].
  • cell's state: h(t) = f(h(h-1), x(t)) vs. cell's output: y(t).
  • rnn takes a sequence or the same vector, and produces a sequence -- all outputs except the last one may be ignored.
    • [encoder-decoder] two-step model works much better than trying to translate on the fly with a seq-to-seq model.
    • [backpropagation through time]

Impl: [simple rnn]