curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.38.0/install.sh | bash
. ~/.nvm/nvm.sh
nvm node install
node -e "console.log('Running Node.js ' + process.version)"
sudo yum install git
$ git remote rm origin | |
$ git remote add origin git@github.com:aplikacjainfo/proj1.git | |
$ git config master.remote origin | |
$ git config master.merge refs/heads/master |
# Created by https://www.gitignore.io/api/node,macos,visualstudiocode | |
# Edit at https://www.gitignore.io/?templates=node,macos,visualstudiocode | |
### macOS ### | |
# General | |
.DS_Store | |
.AppleDouble | |
.LSOverride |
# If you come from bash you might have to change your $PATH. | |
# export PATH=$HOME/bin:/usr/local/bin:$PATH | |
# Path to your oh-my-zsh installation. | |
export ZSH="/Users/elissandro/.oh-my-zsh" | |
# Set name of the theme to load --- if set to "random", it will | |
# load a random theme each time oh-my-zsh is loaded, in which case, | |
# to know which specific one was loaded, run: echo $RANDOM_THEME | |
# See https://github.com/robbyrussell/oh-my-zsh/wiki/Themes |
import pandas as pd | |
from sklearn.model_selection import train_test_split | |
# Read the data | |
X = pd.read_csv('../input/train.csv', index_col='Id') | |
X_test = pd.read_csv('../input/test.csv', index_col='Id') | |
# Remove rows with missing target, separate target from predictors | |
X.dropna(axis=0, subset=['SalePrice'], inplace=True) | |
y = X.SalePrice |
1. Quantidade de pagamento e totalização dos valores atualizados e pagos por orgão, tipo instrumento e modalidade | |
db.contrato.aggregate( [ | |
{ $group: | |
{ | |
_id:{orgao:"$orgao_sigla", instrumento:"$tipo_instrumento_desc", modalidade: "$modalidade_desc"}, | |
_quantidade: {$sum: 1}, | |
_total_atualizado: {$sum: "$valor_atualizado"}, | |
_total_pago: {$sum: "$valor_pago"} | |
} | |
}, |
conda install -c conda-forge jupyter_contrib_nbextensions | |
conda install -c conda-forge jupyter_nbextensions_configurator | |
jupyter contrib nbextension install --user |
Desenvolva uma API REST para 2 entidades: produtos e clientes. Toda a arquitetura deve ser serverless utlizando API Gateway, Lambda e DynamoDB. Cada entidade deve ter uma lmabda e uma tabela cada, garantindo a escalabilidade separadas dos componentes do sistema. A API deve permitir operações CRUD básicas de coleção e recursos, atráves dos verbos comuns: GET, POST, POUT, DELETE. Nas rotas de consulta da coleção, permita que o client envie um parâmetro filter pela URL para filtragem de nomes que contenham o valor do parâmetro, por exemplo:
Um GET para /produtos?filter=xpto
Deverá trazer os produtos que contenha a string xpto no nome.
// Lambda S3 Zipper | |
// http://amiantos.net/zip-multiple-files-on-aws-s3/ | |
// | |
// Accepts a bundle of data in the format... | |
// { | |
// "bucket": "your-bucket", | |
// "destination_key": "zips/test.zip", | |
// "files": [ | |
// { | |
// "uri": "...", (options: S3 file key or URL) |