일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- amazonlinux
- Streamlit
- RAG
- javascript
- 오블완
- 설치
- SQL
- spark
- Redshift
- docker
- airflow
- BigQuery
- ubuntu
- MSA
- 루프백주소
- aiagent
- jmx-exporter
- milvus
- prometheus
- metadabatase
- pySpark
- sparkstreaming
- airflow설치
- dockercompose
- kafka
- grafana
- hadoop
- Python
- Dag
- vectorDB
- Today
- Total
목록Python (3)
데이터 노트

개요분실물을 보다 용이하게 찾을 수 있도록, Lost112 사이트의 데이터를 크롤링하여 적재 후 이미지 및 텍스트 검색 기능을 붙이려고 함.분실물 상세 페이지 내에 있는 줄글의 내용을 임베딩하여 Milvus Vector DB에 저장 후, 이후 유저가 검색 시 사용하도록 한다. 환경ubuntu 내 docker compose로 Milvus DB와 python 코드 실행용 컨테이너를 빌드하여 데이터 적재 작업Milvus 컨테이너 설치하기기존에 테스트 한다고 FastAPI, Python 실행용 web_scraper 등의 컨테이너들을 이미 띄워놓았었는데,이 docker-compose.yaml 파일에 Milvus 공식 문서에서 제공하는 내용을 추가하여 빌드했다.공식 문서 링크아래 코드로 yaml 파일을 다운 받을 ..
필요 사전 작업Bigquery 내에서 서비스 계정 생성 후, JSON 키 생성 및 다운로드 설치구글 클라우드 빅쿼리 클라이언트 설치pip install google-cloud-bigquery구글 시트 연동을 위한 라이브러리 설치pip install gspread oauth2client 코드Python과 BigQuery와 연동해서, 데이터 가져오기from google.cloud import bigqueryfrom google.oauth2 import service_accountKEY_PATH = "{서비스 계정 인증 정보가 담긴 JSON 파일 경로}"# Credentials 객체 생성credentials = service_account.Credentials.from_service_account_file(K..
에러 내용credentials = service_account.Credentials.from_service_account_file(KEY_PATH, scopes)TypeError: Credentials.from_service_account_file() takes 2 positional arguments but 3 were given 상황BigQuery까지만 연동 + scopes를 추가하지 않고 실행 했을 때는 문제가 없었는데,Google Sheet 추가 연결을 위해 scopes 작성이 필요해 작성하고 credential에 추가하였더니 오류가 발생. 해결 방안scopes와 key path를 분리하여 작성하는 형식으로 코드 수정credentials = service_account.Credentials.fro..