Skip to content

Instantly share code, notes, and snippets.

View erenhatirnaz's full-sized avatar
🏠
Working from home

Eren Hatırnaz erenhatirnaz

🏠
Working from home
View GitHub Profile
@erenhatirnaz
erenhatirnaz / teknoseyir.ts
Created May 18, 2020 08:21
Deno deniyoruz örneği. TeknoSeyir'de yazdığım Yazılım Gündemi - 19 yazısı için oluşturuldu. https://teknoseyir.com/blog/yazilim-gundemi-2020-19
import { bgRed, white, bold } from "https://deno.land/std/fmt/colors.ts";
let teknoseyir: string = bold("Tekno") + bold(bgRed(white("Seyir")));
console.log("Selam "+ teknoseyir +"! Deno deniyoruz.");
@extends('layouts.app')
@section('content')
<div class="container">
<div class="row justify-content-center">
<div class="col-md-8">
<div class="card">
<div class="card-header">{{ __('Register') }}</div>
<div class="card-body">
@erenhatirnaz
erenhatirnaz / letter-upper.c
Created January 20, 2019 06:33
ImageMagick paketindeki hatayı keşfetmek için kodladığım bir deney
#include <stdio.h>
#include <ctype.h>
#include <locale.h>
int main() {
setlocale(LC_ALL, "tr_TR.utf8");
// setlocale(LC_ALL, "en_US.utf8");
char ext = 'i';
@erenhatirnaz
erenhatirnaz / twitch
Last active April 20, 2016 12:51
Shows live streamers that you followed
#!/usr/bin/env ruby
require 'net/https'
require 'uri'
require 'json'
require 'colorize'
def get(url)
url = URI.parse(url)
req = Net::HTTP::Get.new(url.to_s)
http = Net::HTTP.new(url.host, url.port)
@erenhatirnaz
erenhatirnaz / web-crawler-loop.py
Last active May 30, 2016 06:15
Web Crawler Döngüsü
for site in sites: # sites dizisinin içerisinden linkleri tek tek getiriyoruz
if not site in visited: # eğer link visited dizisinin içerisinde yok ise(yani daha önce ziyaret edilmemiş ise):
status, response = http.request(site) # http.request fonksiyonu ile linki GET methodu ile ziyaret ediyoruz ve sitenin bize verdiği status kodunu status; bize verdiği html içerikli cevabı ise response değişkenine atıyoruz.
print("Scanning "+site+": ") # ekrana taradığımız linki yazdırıyoruz
for link in BeautifulSoup(response, parseOnlyThese=SoupStrainer('a')): # sitenin bize verdiği response'un içerisinden tüm a taglarını çekiyoruz(yani tüm linkleri)
if link.has_attr('href'): # ve href attribute'u(özelliği) varmı diye kontrol ediyoruz yani <a href='burada bişey varsa'></a>
url = urljoin(site, link['href']) # linkler site içerisinden /dosyaismi.html şeklinde geldiği için bunun önüne domain eklemek gerekiyor bu nedenle urllib kütüphanesinin urljoin fonksiyonundan yararlanarak düzgün linkimizi oluşturuy