AI 기반 분석
코드의 고급 분석을 위해 Noir의 AI 통합을 사용하는 방법을 알아보세요. 이 가이드는 OpenAI, xAI 및 로컬 모델과 같은 LLM 제공업체에 연결하는 데 필요한 플래그와 옵션을 다룹니다.
Noir는 클라우드 기반 서비스와 로컬 인스턴스 모두의 대규모 언어 모델(LLM)에 연결하여 코드베이스에 대한 더 깊은 수준의 분석을 제공할 수 있습니다. AI를 활용함으로써 Noir는 종종 기본적으로 지원하지 않는 언어와 프레임워크에서 엔드포인트를 식별할 수 있으며, 애플리케이션의 기능에 대한 추가적인 인사이트를 제공할 수 있습니다.
AI 통합 사용 방법
AI 기반 분석을 활성화하려면 AI 제공업체, 모델 및 API 키를 지정해야 합니다.
noir -b . --ai-provider <PROVIDER> --ai-model <MODEL_NAME> --ai-key <YOUR_API_KEY>
명령줄 플래그
--ai-provider
: 사용하려는 AI 제공업체입니다. 이는 사전 설정 접두사(openai
또는ollama
와 같은) 또는 사용자 정의 API 엔드포인트의 전체 URL일 수 있습니다.--ai-model
: 분석에 사용하려는 모델의 이름입니다(예:gpt-4o
).--ai-key
: AI 제공업체를 위한 API 키입니다.NOIR_AI_KEY
환경 변수를 사용하여 설정할 수도 있습니다.--ai-max-token
: (선택사항) AI 요청에 사용할 최대 토큰 수입니다. 이는 생성된 텍스트의 길이에 영향을 줄 수 있습니다.
지원되는 AI 제공업체
Noir는 다음 AI 제공업체를 지원합니다:
OpenAI
noir -b . --ai-provider openai --ai-model gpt-4o --ai-key YOUR_OPENAI_API_KEY
xAI (Grok)
noir -b . --ai-provider xai --ai-model grok-beta --ai-key YOUR_XAI_API_KEY
Ollama (로컬)
로컬에서 Ollama를 실행하는 경우:
noir -b . --ai-provider ollama --ai-model llama3.2 --ai-key ""
vLLM
noir -b . --ai-provider vllm --ai-model microsoft/DialoGPT-medium --ai-key ""
LM Studio
로컬 LM Studio 인스턴스의 경우:
noir -b . --ai-provider lmstudio --ai-model local-model --ai-key lm-studio
AI 분석의 이점
AI 통합을 사용할 때 다음과 같은 이점을 얻을 수 있습니다:
- 확장된 언어 지원: Noir가 기본적으로 지원하지 않는 언어와 프레임워크에서 엔드포인트 발견
- 향상된 정확도: AI가 복잡한 코드 패턴과 동적 엔드포인트를 식별하는 데 도움
- 컨텍스트 이해: AI가 코드의 맥락을 더 잘 이해하여 더 정확한 분석 제공
모범 사례
- 적절한 토큰 제한을 설정하여 비용과 성능의 균형을 맞추세요
- 민감한 코드의 경우 로컬 AI 모델 사용을 고려하세요
- AI 분석 결과를 정적 분석 결과와 함께 검토하여 포괄적인 보안 평가를 수행하세요