Dies ist eine HTML Version eines Anhanges der Informationsfreiheitsanfrage 'Documents related to 31.05.2023 meeting with OpenAI'.




Ref. Ares(2023)5064047 - 20/07/2023

Meeting with 
 OpenAI 
Virtual, 31 May 2023 
Defensives  
How would ChatGPT/GPAI be covered by the Commission proposal for the AI Act? 
  The proposed AI act takes a risk-based approach. A different set of rules of the AI Act 
applies depending on the risk level determined by the legislator: 
  unacceptable risk: prohibited; 
  high-risk:  compliance  with  requirements  on  data,  documentation,  transparency, 
human oversight, robustness, accuracy and cybersecurity is verified in a conformity 
assessment before the system is placed on the internal market; 
  low/transparency  risk:  disclosure  obligations  i.e.  natural  persons  should  be 
informed that they are dealing with an AI-system (bot) and not with a human; 
  other: none.  
  General  Purpose  AI  such  as  ChatGPT  has  a  multitude  of  potential  applications, 
which may include all four-risk categories.  
  Certain uses of ChatGPT like social scoring by public authorities may be prohibited due 
to the unacceptable level of risk. 
  To assess whether an AI-system is high-risk the AI Act uses the concept of “intended 
purpose”, which is a common characteristic of EU product legislation. The provider of 
an  AI  system  will  have  the  responsibility  to  determine the  purpose for  which  category 
its product is intended to be used. This decision leads to a classification of the system 
in the high-risk category and thus triggers the application of the corresponding rules (in 
particular  the  ex-ante  conformity  assessment  of  the  requirements  for  high-risk 
systems). 
  As  far  as  ChatGPT  can  be  directly  used,  including  for  high-risk  applications  (like the 
evaluation  of  job  candidates),  it  would  therefore  have  to  fulfil  the  corresponding 
requirements  for  high-risk  AI  systems,  if  the  AI  Act  were  in  force.  This  assessment 
would  only  be  different,  if  any  use  for  a  high-risk  purpose  had  been  excluded  by  the 
provider. 
  As  ChatGPT  is  a  chat  bot,  therefore  the  transparency  obligations  would  have  to  be 
respected, i.e. natural persons would have to be informed that they interact with an AI.  
  Thus,  a risk  assessment  of  each General  Purpose AI  based  on  its  different  potential 
applications is needed to determine which rules are applicable in each case.  
  General  Purpose  AI  can  also  be  used  as  input  by  other  companies  to  offer  more 
specific AI applications. For example, a General Purpose Image Recognition AI could 
be further developed and used for airport security controls or biometric identification. In 
that  case,  the  company  using  the  General  Purpose  AI  as  an  input  would  have  the 
responsibility to comply with the corresponding obligations. 
Contact – briefing coordination: 
 
Steering brief 
2/2