일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- airflow설치
- aiagent
- amazonlinux
- kafka
- BigQuery
- Streamlit
- jmx-exporter
- Dag
- Python
- dockercompose
- RAG
- Redshift
- 루프백주소
- grafana
- 설치
- prometheus
- vectorDB
- hadoop
- sparkstreaming
- airflow
- MSA
- 오블완
- pySpark
- SQL
- milvus
- ubuntu
- javascript
- metadabatase
- spark
- docker
- Today
- Total
목록SQL (2)
데이터 노트
데이터를 이관하는 과정에서 프로시저를 자동화 했는데,로직이 잘못 되었었는지 같은 데이터가 중복으로 삽입되어 있었다. 이를 삭제하기 위한 쿼리를 기록해본다. 일반적으로 고유한 값을 가지는 id로만 데이터를 구분하여 삭제하는 쿼리 예시는 많이 있었는데,내가 겪은 케이스의 경우 id 값이 유일하지 않았다. 그래서 유일해야하는 id값과 컬럼 중 데이터 값이 유일하게 달랐던 데이터 삽입 시간 created_datetime을 기준으로 구분했다.DELETE FROM table1WHERE (id, created_datetime) IN ( SELECT id, created_datetime FROM ( SELECT id, created_datetime ,ROW_NUMBER() OVER (PART..
Redshift 상에 구축한 프로시저를 자동화하기 위해 Airflow에 DAG, Task를 생성하였으나,제대로 작동되지 않고 데이터가 들어가지 않았다. 그런데 Airflow 상에서는 제대로 task가 실행되었다고 뜨고,별도의 오류가 없어서 다같이 트러블슈팅을 하였다. 결과론적으로는 시간대 설정의 문제였다.airflow 상에서는 한국 시간대 KST로 설정하여 프로시저가 작동하도록 설정해두었는데,redshift 상에서는 프로시저에서 기간 값 설정을 위해 Declare 문에서 선언한 변수의 시간을 current_date로 설정한 것이 문제였다.-- 기존 프로시저 내 설정DECLARE date_from date:= (current_date -7)::date; date_to date:= (current_da..