April 22nd-28th 2023 Ukraine’s game plan



Yüklə 5,71 Mb.
Pdf görüntüsü
səhifə8/110
tarix29.11.2023
ölçüsü5,71 Mb.
#139759
1   ...   4   5   6   7   8   9   10   11   ...   110
The Economist

HSBC
’s
biggest shareholder
increased pressure on the bank
to hive off its Asian business.
Ping An, a giant Chinese in­
surer, which owns around 8%
of
HSBC
, presented its plan in
public for the first time, and
said that 
HSBC
was “exaggerat­
ing” the risks of the proposal. 
A $6.9bn charge related to up
to 70,000 claims that its
talcum powder causes cancer
drove 
Johnson & Johnson
to a
small quarterly loss. The pro­
posed settlement totals
$8.9bn, making it one of the
largest­ever liability payouts at
an American company. 
Tesla’s
aggressive price cuts of
its cars drove a 24% rise in
revenue in the latest quarter,
year on year. But the lower
prices hit net profit, which 
fell, also by 24%. 
Film adaptation
Netflix
netted another 1.75m
subscribers in the first quarter,
taking its global users to
232.5m. That was a 4.9%
increase, year on year, better
than in the previous two quar­
ters but a far cry from the
20%­plus it racked up during
the pandemic. The streaming
giant is delaying a crackdown
on sharing passwords, after
pilot schemes caused people to
cancel their subscriptions. The
company also said it would
end its 
DVD
­mailing service,
which started off the business
in 1997, in September. 
Apple
opened its first stores in
India, in Mumbai and Delhi.
Tim Cook, Apple’s boss, at­
tended the grand openings. He
also met Narendra Modi, the
prime minister; Apple is ex­
panding manufacturing in the
country. Costly iPhones are out
of reach for most Indians and
are a small share of the market.
Still, Apple is tapping into
steady growth in the premium­
phone sector, as India’s middle
class gets richer. 
China’s GDP
% change on a year earlier
Source: Haver Analytics
20
10
0
-10
23
22
21
2020
012


9
Leaders
“S
hould we automate
away all the jobs, including the ful­
filling ones? Should we develop non­human minds that
might eventually outnumber, outsmart...and replace us? Should
we risk loss of control of our civilisation?” These questions were
asked last month in an open letter from the Future of Life Insti­
tute, an 
ngo
. It called for a six­month “pause” in the creation of
the most advanced forms of artificial intelligence (
AI
), and was
signed by tech luminaries including Elon Musk. It is the most
prominent example yet of how rapid progress in 
AI
has sparked
anxiety about the potential dangers of the technology.
In particular, new “large language models” (
LLM
s)—the sort
that powers Chat
GPT
, a chatbot made by Open
AI
, a startup—have
surprised even their creators with their unexpected talents as
they have been scaled up. Such “emergent” abilities include
everything from solving logic puzzles and writing computer
code to identifying films from plot summaries written in emoji. 
These models stand to transform humans’ relationship with
computers, knowledge and even with themselves (see Essay).
Proponents of 
AI
argue for its potential to solve big problems by
developing new drugs, designing new materials to help fight cli­
mate change, or untangling the complexities of fusion power. To
others, the fact that 
ai
s’ capabilities are already outrunning their
creators’ understanding risks bringing to life the science­fiction
disaster scenario of the machine that outsmarts
its inventor, often with fatal consequences.
This bubbling mixture of excitement and
fear makes it hard to weigh the opportunities
and risks. But lessons can be learned from other
industries, and from past technological shifts.
So what has changed to make 
AI
so much more
capable? How scared should you be? And what
should governments do?
In a special Science section, we explore the workings of
llm
s
and their future direction. The first wave of modern 
AI
systems,
which emerged a decade ago, relied on carefully labelled train­
ing data. Once exposed to a sufficient number of labelled exam­
ples, they could learn to do things like recognise images or tran­
scribe speech. Today’s systems do not require pre­labelling, and
as a result can be trained using much larger data sets taken from
online sources. 
LLM
s can, in effect, be trained on the entire in­
ternet—which explains their capabilities, good and bad.
Those capabilities became apparent to a wider public when
Chat
GPT
was released in November. A million people had used it
within a week; 100m within two months. It was soon being used
to generate school essays and wedding speeches. Chat
GPT
’s pop­
ularity, and Microsoft’s move to incorporate it into Bing, its
search engine, prompted rival firms to release chatbots too. 
Some of these produced strange results. Bing Chat suggested
to a journalist that he should leave his wife. Chat
GPT
has been
accused of defamation by a law professor. 
LLM
s produce answers
that have the patina of truth, but often contain factual errors or
outright fabrications. Even so, Microsoft, Google and other tech
firms have begun to incorporate 
LLM
s into their products, to
help users create documents and perform other tasks. 
The recent acceleration in both the power and visibility of 
AI
systems, and growing awareness of their abilities and defects,
have raised fears that the technology is now advancing so quick­
ly that it cannot be safely controlled. Hence the call for a pause,
and growing concern that 
AI
could threaten not just jobs, factual
accuracy and reputations, but the existence of humanity itself. 

Yüklə 5,71 Mb.

Dostları ilə paylaş:
1   ...   4   5   6   7   8   9   10   11   ...   110




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə