728x90

https://datascienceschool.net/view-notebook/79140e6a9e364bcbb04cb8e525b9dba4/

 

Data Science School

Data Science School is an open space!

datascienceschool.net

 

728x90

'Dic' 카테고리의 다른 글

Distance Metric Learning  (0) 2019.07.24
Cross entropy  (0) 2019.07.24
Maximum likelihood estimation  (0) 2019.07.24
Hard negative mining  (0) 2019.07.23
information theory  (0) 2019.07.23
728x90

https://unabated.tistory.com/entry/%EC%B5%9C%EB%8C%80%EC%9A%B0%EB%8F%84%EB%B2%95Maximum-Likelihood

 

최대우도법(Maximum Likelihood)

정의 어떤 확률변수에서 표집한 값들을 토대로 그 확률변수의 모수를 구하는 방법. 즉, 어떤 모수가 주어졌을 때, 원하는 값들이 나올 가능도를 최대로 만드는 모수를 선택하는 방법. 방법 어떤 모수 θ " ro..

unabated.tistory.com

 

728x90

'Dic' 카테고리의 다른 글

Cross entropy  (0) 2019.07.24
likelihood  (0) 2019.07.24
Hard negative mining  (0) 2019.07.23
information theory  (0) 2019.07.23
F-measure  (0) 2019.07.22
728x90

http://blog.naver.com/PostView.nhn?blogId=sogangori&logNo=221073537958

 

hard negative mining

Object Detection Network 에서 자주 나오는 hard negative sk hard negative mining라는 말이 자주 나...

blog.naver.com

 

728x90

'Dic' 카테고리의 다른 글

likelihood  (0) 2019.07.24
Maximum likelihood estimation  (0) 2019.07.24
information theory  (0) 2019.07.23
F-measure  (0) 2019.07.22
Affinity Propagation  (0) 2019.07.21
728x90

https://reniew.github.io/17/

 

정보이론 : 엔트로피, KL-Divergence

An Ed edition

reniew.github.io

 

https://kangbk0120.github.io/articles/2018-03/information-theory

 

Information Theory에 대한 정리

Information Theory Deep Learning Book Ch.3은 Probability and Information Theory라는 제목입니다. 오늘 발제는 이 중에서도 Information Theory에 대해서 초점을 맞춰서 진행해보려고 합니다. 정보 이론은 말 그대로, 정보라는 개념을 구체화/수치화했다고 생각하시면 됩니다. 이때 가장 기본적인 개념은 드물게 일어나는 사건일수록, 자주 일어나는 사건에 비해 더 많은 정보를 담고 있다는 것입니

kangbk0120.github.io

PRML , Deep Learning book 참고

728x90

'Dic' 카테고리의 다른 글

Maximum likelihood estimation  (0) 2019.07.24
Hard negative mining  (0) 2019.07.23
F-measure  (0) 2019.07.22
Affinity Propagation  (0) 2019.07.21
logit , sigmoid, softmax  (0) 2019.07.11
728x90

My Code

 

def Ck_Laser(arr):
    if arr[0]=='(' and arr[1]==')':
        return True
    else:
        return False
    
def Ck_in_line(Laser_num):
    if len(Laser_num)>0:
        return True
    else:
        return False

 

def solution(arr):
    ans=0
    arr=list(arr)
    Laser_num=[]
    
    while arr:
        ck_L=Ck_Laser(arr)
        ck_in=Ck_in_line(Laser_num)
#         print(arr)
#         print(Laser_num)
#         print('ans:{}'.format(ans))
#         print(ck_in)
        if ck_in==False: #현재 막대기 밖에 있음
            if ck_L==True: #레이저 만나면
                for i in range(2):
                    arr.pop(0) #걍 레이저 제거
            else:
                arr.pop(0) #막대기 시작
                Laser_num.append(0) #조각 수 세기 위한 공간 할당
        else: #현재 막대기 안에 있음
            if ck_L==True: #레이저 만나면
                #현재 지나고 있는 막대기의 레이저 수 전부에 +1
                for i in range(len(Laser_num)):
                    Laser_num[i]+=1
                for i in range(2):
                    arr.pop(0) #레이저 제거
            elif arr[0]=='(':
                arr.pop(0) #막대기 시작
                Laser_num.append(0) #조각 수 세기 위한 공간 할당
            elif arr[0]==')':
                arr.pop(0)
                ans+=(Laser_num.pop()+1)
    return ans

 

Better Code

 

def solution(arrangement):
    answer = 0
    arrangement = arrangement.replace("()","L")
    stack = []
    for idx, c in enumerate(arrangement):
        if c == '(':
stack.append('(')
            answer += 1
        elif c == ')':
stack.pop()
        else:
            answer += len(stack)  #스택길이가 막대기 개수이고, 한번 레이저마다 막대기 개수만큼 조각늘어남
return answer

728x90
728x90

http://m.blog.daum.net/jungjin1980/270?tp_nil_a=1

 

f1 score (f-measure)

출처 : http://hanggoo.tistory.com/m/post/17 자연어처리를 공부하다보면 논문에 Precision, Recall등으로 실험결과를 표현하는것이 많다. 자주쓰이지만 해깔려서 적어본다. 실험 결과 True Fa

blog.daum.net

 

https://www.popit.kr/%EC%9A%A9%EC%96%B4-%EC%A0%95%EB%A6%AC-%EC%9E%85%EA%B0%9C%EB%B0%9C%EC%9E%90%EB%A5%BC-%EC%9C%84%ED%95%9C-accuracy-precision-recall/

 

[용어 정리] 입개발자를 위한 Accuracy, Precision, Recall | Popit

머신러닝하면 자주 등장하는 Accuracy, Recall, Precision라는 용어에 대해서 간단하게 살펴 보았습니다.

www.popit.kr

 

728x90

'Dic' 카테고리의 다른 글

Hard negative mining  (0) 2019.07.23
information theory  (0) 2019.07.23
Affinity Propagation  (0) 2019.07.21
logit , sigmoid, softmax  (0) 2019.07.11
annotation  (0) 2019.07.09
728x90

http://schoolofweb.net/blog/posts/%ED%8C%8C%EC%9D%B4%EC%8D%AC-oop-part-4-%ED%81%B4%EB%9E%98%EC%8A%A4-%EB%A9%94%EC%86%8C%EB%93%9C%EC%99%80-%EC%8A%A4%ED%83%9C%ED%8B%B1-%EB%A9%94%EC%86%8C%EB%93%9C-class-method-and-static-method/

728x90

'Python' 카테고리의 다른 글

with as  (0) 2020.06.19
Data distribution  (0) 2019.09.06
startswith()  (0) 2019.07.18
assert()  (0) 2019.07.10
Python - 파라미터 앞에 *, ** 의 의미? (*args, **kwargs)  (0) 2019.07.08
728x90

https://datascienceschool.net/view-notebook/3bd9864b09d0466995134220f6779d6d/

728x90

'Dic' 카테고리의 다른 글

information theory  (0) 2019.07.23
F-measure  (0) 2019.07.22
logit , sigmoid, softmax  (0) 2019.07.11
annotation  (0) 2019.07.09
num_workers  (0) 2019.07.08

+ Recent posts