source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3878

Last change on this file since 3878 was 3878, checked in by matszpk, 14 months ago

CLRadeonExtender: AsmRegAlloc?: Small fix.

File size: 112.8 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593};
594
595typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
596
597struct CLRX_INTERNAL RoutineData
598{
599    // rbwSSAIdMap - read before write SSAId's map
600    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
601    LastSSAIdMap curSSAIdMap;
602    LastSSAIdMap lastSSAIdMap;
603   
604    size_t weight() const
605    { return rbwSSAIdMap.size() + lastSSAIdMap.weight(); }
606};
607
608struct CLRX_INTERNAL FlowStackEntry
609{
610    size_t blockIndex;
611    size_t nextIndex;
612    bool isCall;
613    RetSSAIdMap prevRetSSAIdSets;
614};
615
616struct CLRX_INTERNAL FlowStackEntry2
617{
618    size_t blockIndex;
619    size_t nextIndex;
620};
621
622
623struct CLRX_INTERNAL CallStackEntry
624{
625    size_t callBlock; // index
626    size_t callNextIndex; // index of call next
627    size_t routineBlock;    // routine block
628};
629
630class ResSecondPointsToCache: public std::vector<bool>
631{
632public:
633    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
634    { }
635   
636    void increase(size_t i)
637    {
638        if ((*this)[i<<1])
639            (*this)[(i<<1)+1] = true;
640        else
641            (*this)[i<<1] = true;
642    }
643   
644    cxuint count(size_t i) const
645    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
646};
647
648typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
649typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
650
651static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
652              size_t origId, size_t destId)
653{
654    auto res = rmap.insert({ vreg, {} });
655    res.first->second.push_back({ origId, destId });
656}
657
658static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
659            const LastSSAIdMap* stackVarMap,
660            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
661            FlowStackEntry2& entry, const SSAEntry& sentry,
662            RBWSSAIdMap* cacheSecPoints)
663{
664    const SSAInfo& sinfo = sentry.second;
665    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
666   
667    if (res.second && sinfo.readBeforeWrite)
668    {
669        if (cacheSecPoints != nullptr)
670        {
671            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
672            if (!res.second)
673                res.first->second.insertValue(sinfo.ssaIdBefore);
674        }
675       
676        if (stackVarMap != nullptr)
677        {
678           
679            // resolve conflict for this variable ssaId>.
680            // only if in previous block previous SSAID is
681            // read before all writes
682            auto it = stackVarMap->find(sentry.first);
683           
684            if (it != stackVarMap->end())
685            {
686                // found, resolve by set ssaIdLast
687                for (size_t ssaId: it->second)
688                {
689                    if (ssaId > sinfo.ssaIdBefore)
690                    {
691                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
692                            sentry.first.index  << ": " <<
693                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
694                        insertReplace(*replacesMap, sentry.first, ssaId,
695                                    sinfo.ssaIdBefore);
696                    }
697                    else if (ssaId < sinfo.ssaIdBefore)
698                    {
699                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
700                            sentry.first.index  << ": " <<
701                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
702                        insertReplace(*replacesMap, sentry.first,
703                                        sinfo.ssaIdBefore, ssaId);
704                    }
705                    /*else
706                        std::cout << "  noinsertreplace: " <<
707                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
708                }
709            }
710        }
711    }
712}
713
714typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
715
716static void useResSecPointCache(SSAReplacesMap* replacesMap,
717        const LastSSAIdMap* stackVarMap,
718        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
719        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
720        RBWSSAIdMap* destCacheSecPoints)
721{
722    std::cout << "use resSecPointCache for " << nextBlock <<
723            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
724    for (const auto& sentry: *resSecondPoints)
725    {
726        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
727        if (destCacheSecPoints != nullptr && !alreadyRead)
728        {
729            auto res = destCacheSecPoints->insert(sentry);
730            if (!res.second)
731                for (size_t srcSSAId: sentry.second)
732                    res.first->second.insertValue(srcSSAId);
733        }
734       
735        if (stackVarMap != nullptr)
736        {
737            auto it = stackVarMap->find(sentry.first);
738           
739            if (it != stackVarMap->end() && !alreadyRead)
740            {
741                // found, resolve by set ssaIdLast
742                for (size_t ssaId: it->second)
743                {
744                    for (size_t secSSAId: sentry.second)
745                    {
746                        if (ssaId > secSSAId)
747                        {
748                            std::cout << "  insertreplace: " <<
749                                sentry.first.regVar << ":" <<
750                                sentry.first.index  << ": " <<
751                                ssaId << ", " << secSSAId << std::endl;
752                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
753                        }
754                        else if (ssaId < secSSAId)
755                        {
756                            std::cout << "  insertreplace2: " <<
757                                sentry.first.regVar << ":" <<
758                                sentry.first.index  << ": " <<
759                                ssaId << ", " << secSSAId << std::endl;
760                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
761                        }
762                        /*else
763                            std::cout << "  noinsertreplace: " <<
764                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
765                    }
766                }
767            }
768        }
769    }
770}
771
772static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
773                const std::vector<CodeBlock>& codeBlocks,
774                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
775                size_t nextBlock)
776{
777    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
778    //std::stack<CallStackEntry> callStack = prevCallStack;
779    // traverse by graph from next block
780    std::deque<FlowStackEntry2> flowStack;
781    flowStack.push_back({ nextBlock, 0 });
782    std::vector<bool> visited(codeBlocks.size(), false);
783   
784    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
785   
786    RBWSSAIdMap cacheSecPoints;
787   
788    while (!flowStack.empty())
789    {
790        FlowStackEntry2& entry = flowStack.back();
791        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
792       
793        if (entry.nextIndex == 0)
794        {
795            // process current block
796            if (!visited[entry.blockIndex])
797            {
798                visited[entry.blockIndex] = true;
799                std::cout << "  resolv: " << entry.blockIndex << std::endl;
800               
801                const RBWSSAIdMap* resSecondPoints =
802                            resSecondPointsCache.use(entry.blockIndex);
803                if (resSecondPoints == nullptr)
804                    for (auto& sentry: cblock.ssaInfoMap)
805                        handleSSAEntryWhileResolving(nullptr, nullptr,
806                                alreadyReadMap, entry, sentry,
807                                &cacheSecPoints);
808                else // to use cache
809                {
810                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
811                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
812                    flowStack.pop_back();
813                    continue;
814                }
815            }
816            else
817            {
818                // back, already visited
819                std::cout << "resolv already: " << entry.blockIndex << std::endl;
820                flowStack.pop_back();
821                continue;
822            }
823        }
824       
825        /*if (!callStack.empty() &&
826            entry.blockIndex == callStack.top().callBlock &&
827            entry.nextIndex-1 == callStack.top().callNextIndex)
828            callStack.pop(); // just return from call
829        */
830        if (entry.nextIndex < cblock.nexts.size())
831        {
832            /*if (cblock.nexts[entry.nextIndex].isCall)
833                callStack.push({ entry.blockIndex, entry.nextIndex,
834                            cblock.nexts[entry.nextIndex].block });*/
835            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
836            entry.nextIndex++;
837        }
838        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
839                // if have any call then go to next block
840                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
841                 !cblock.haveReturn && !cblock.haveEnd)
842        {
843            // add toResolveMap ssaIds inside called routines
844            for (const auto& next: cblock.nexts)
845                if (next.isCall)
846                {
847                    const RoutineData& rdata = routineMap.find(next.block)->second;
848                    for (const auto& v: rdata.rbwSSAIdMap)
849                        alreadyReadMap.insert({v.first, entry.blockIndex });
850                    for (const auto& v: rdata.lastSSAIdMap)
851                        alreadyReadMap.insert({v.first, entry.blockIndex });
852                }
853           
854            flowStack.push_back({ entry.blockIndex+1, 0 });
855            entry.nextIndex++;
856        }
857        else // back
858        {
859            // remove old to resolve in leaved way to allow collecting next ssaId
860            // before write (can be different due to earlier visit)
861            for (const auto& next: cblock.nexts)
862                if (next.isCall)
863                {
864                    const RoutineData& rdata = routineMap.find(next.block)->second;
865                    for (const auto& v: rdata.rbwSSAIdMap)
866                    {
867                        auto it = alreadyReadMap.find(v.first);
868                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
869                            alreadyReadMap.erase(it);
870                    }
871                    for (const auto& v: rdata.lastSSAIdMap)
872                    {
873                        auto it = alreadyReadMap.find(v.first);
874                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
875                            alreadyReadMap.erase(it);
876                    }
877                }
878           
879            for (const auto& sentry: cblock.ssaInfoMap)
880            {
881                auto it = alreadyReadMap.find(sentry.first);
882                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
883                    // remove old to resolve in leaved way to allow collecting next ssaId
884                    // before write (can be different due to earlier visit)
885                    alreadyReadMap.erase(it);
886            }
887            std::cout << "  popresolv" << std::endl;
888            flowStack.pop_back();
889        }
890    }
891   
892    resSecondPointsCache.put(nextBlock, cacheSecPoints);
893}
894
895
896static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
897        const std::unordered_map<size_t, RoutineData>& routineMap,
898        const std::vector<CodeBlock>& codeBlocks,
899        const PrevWaysIndexMap& prevWaysIndexMap,
900        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
901        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
902        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
903        SSAReplacesMap& replacesMap)
904{
905    size_t nextBlock = prevFlowStack.back().blockIndex;
906    auto pfEnd = prevFlowStack.end();
907    --pfEnd;
908    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
909    LastSSAIdMap stackVarMap;
910   
911    size_t pfStartIndex = 0;
912    {
913        auto pfPrev = pfEnd;
914        --pfPrev;
915        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
916        if (it != prevWaysIndexMap.end())
917        {
918            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
919            if (cached!=nullptr)
920            {
921                std::cout << "use pfcached: " << it->second.first << ", " <<
922                        it->second.second << std::endl;
923                stackVarMap = *cached;
924                pfStartIndex = it->second.second+1;
925            }
926        }
927    }
928   
929    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
930    {
931        const FlowStackEntry2& entry = *pfit;
932        std::cout << "  apply: " << entry.blockIndex << std::endl;
933        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
934        for (const auto& sentry: cblock.ssaInfoMap)
935        {
936            const SSAInfo& sinfo = sentry.second;
937            if (sinfo.ssaIdChange != 0)
938                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
939        }
940        if (entry.nextIndex > cblock.nexts.size())
941            for (const NextBlock& next: cblock.nexts)
942                if (next.isCall)
943                {
944                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
945                            entry.nextIndex << ": " << next.block << std::endl;
946                    const LastSSAIdMap& regVarMap =
947                            routineMap.find(next.block)->second.lastSSAIdMap;
948                    for (const auto& sentry: regVarMap)
949                        stackVarMap[sentry.first] = sentry.second;
950                }
951       
952        // put to first point cache
953        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
954        {
955            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
956            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
957        }
958    }
959   
960    RBWSSAIdMap cacheSecPoints;
961    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
962                cblocksToCache.count(nextBlock)>=2;
963   
964    //std::stack<CallStackEntry> callStack = prevCallStack;
965    // traverse by graph from next block
966    std::deque<FlowStackEntry2> flowStack;
967    flowStack.push_back({ nextBlock, 0 });
968    std::vector<bool> visited(codeBlocks.size(), false);
969   
970    // already read in current path
971    // key - vreg, value - source block where vreg of conflict found
972    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
973   
974    while (!flowStack.empty())
975    {
976        FlowStackEntry2& entry = flowStack.back();
977        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
978       
979        if (entry.nextIndex == 0)
980        {
981            // process current block
982            if (!visited[entry.blockIndex])
983            {
984                visited[entry.blockIndex] = true;
985                std::cout << "  resolv: " << entry.blockIndex << std::endl;
986               
987                const RBWSSAIdMap* resSecondPoints =
988                        resSecondPointsCache.use(entry.blockIndex);
989                if (resSecondPoints == nullptr)
990                    for (auto& sentry: cblock.ssaInfoMap)
991                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
992                                alreadyReadMap, entry, sentry,
993                                toCache ? &cacheSecPoints : nullptr);
994                else // to use cache
995                {
996                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
997                            resSecondPoints, entry.blockIndex,
998                            toCache ? &cacheSecPoints : nullptr);
999                    flowStack.pop_back();
1000                    continue;
1001                }
1002            }
1003            else
1004            {
1005                cblocksToCache.increase(entry.blockIndex);
1006                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1007                            cblocksToCache.count(entry.blockIndex) << std::endl;
1008                // back, already visited
1009                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1010                flowStack.pop_back();
1011                continue;
1012            }
1013        }
1014       
1015        /*if (!callStack.empty() &&
1016            entry.blockIndex == callStack.top().callBlock &&
1017            entry.nextIndex-1 == callStack.top().callNextIndex)
1018            callStack.pop(); // just return from call
1019        */
1020        if (entry.nextIndex < cblock.nexts.size())
1021        {
1022            /*if (cblock.nexts[entry.nextIndex].isCall)
1023                callStack.push({ entry.blockIndex, entry.nextIndex,
1024                            cblock.nexts[entry.nextIndex].block });*/
1025            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1026            entry.nextIndex++;
1027        }
1028        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1029                // if have any call then go to next block
1030                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1031                 !cblock.haveReturn && !cblock.haveEnd)
1032        {
1033            // add toResolveMap ssaIds inside called routines
1034            for (const auto& next: cblock.nexts)
1035                if (next.isCall)
1036                {
1037                    const RoutineData& rdata = routineMap.find(next.block)->second;
1038                    for (const auto& v: rdata.rbwSSAIdMap)
1039                        alreadyReadMap.insert({v.first, entry.blockIndex });
1040                    for (const auto& v: rdata.lastSSAIdMap)
1041                        alreadyReadMap.insert({v.first, entry.blockIndex });
1042                }
1043           
1044            flowStack.push_back({ entry.blockIndex+1, 0 });
1045            entry.nextIndex++;
1046        }
1047        else // back
1048        {
1049            // remove old to resolve in leaved way to allow collecting next ssaId
1050            // before write (can be different due to earlier visit)
1051            for (const auto& next: cblock.nexts)
1052                if (next.isCall)
1053                {
1054                    const RoutineData& rdata = routineMap.find(next.block)->second;
1055                    for (const auto& v: rdata.rbwSSAIdMap)
1056                    {
1057                        auto it = alreadyReadMap.find(v.first);
1058                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1059                            alreadyReadMap.erase(it);
1060                    }
1061                    for (const auto& v: rdata.lastSSAIdMap)
1062                    {
1063                        auto it = alreadyReadMap.find(v.first);
1064                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1065                            alreadyReadMap.erase(it);
1066                    }
1067                }
1068           
1069            for (const auto& sentry: cblock.ssaInfoMap)
1070            {
1071                auto it = alreadyReadMap.find(sentry.first);
1072                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1073                    // remove old to resolve in leaved way to allow collecting next ssaId
1074                    // before write (can be different due to earlier visit)
1075                    alreadyReadMap.erase(it);
1076            }
1077            std::cout << "  popresolv" << std::endl;
1078           
1079            if (cblocksToCache.count(entry.blockIndex)==2 &&
1080                !resSecondPointsCache.hasKey(entry.blockIndex))
1081                // add to cache
1082                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1083                            entry.blockIndex);
1084           
1085            flowStack.pop_back();
1086        }
1087    }
1088   
1089    if (toCache)
1090        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1091}
1092
1093static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1094                size_t routineBlock)
1095{
1096    for (const auto& entry: src)
1097    {
1098        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1099                cxuint(entry.first.index) << ":";
1100        for (size_t v: entry.second)
1101            std::cout << " " << v;
1102        std::cout << std::endl;
1103        // insert if not inserted
1104        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1105        if (res.second)
1106            continue; // added new
1107        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1108        res.first->second.routines.push_back(routineBlock);
1109        // add new ways
1110        for (size_t ssaId: entry.second)
1111            destEntry.insertValue(ssaId);
1112        std::cout << "    :";
1113        for (size_t v: destEntry)
1114            std::cout << " " << v;
1115        std::cout << std::endl;
1116    }
1117}
1118
1119static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1120{
1121    for (const auto& entry: src)
1122    {
1123        std::cout << "  entry: " << entry.first.regVar << ":" <<
1124                cxuint(entry.first.index) << ":";
1125        for (size_t v: entry.second)
1126            std::cout << " " << v;
1127        std::cout << std::endl;
1128        auto res = dest.insert(entry); // find
1129        if (res.second)
1130            continue; // added new
1131        VectorSet<size_t>& destEntry = res.first->second;
1132        // add new ways
1133        for (size_t ssaId: entry.second)
1134            destEntry.insertValue(ssaId);
1135        std::cout << "    :";
1136        for (size_t v: destEntry)
1137            std::cout << " " << v;
1138        std::cout << std::endl;
1139    }
1140}
1141
1142static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1143                    const RoutineData& laterRdata, bool loop = false)
1144{
1145    for (const auto& entry: src)
1146    {
1147        auto lsit = laterRdata.lastSSAIdMap.find(entry.first);
1148        if (lsit != laterRdata.lastSSAIdMap.end())
1149        {
1150            auto csit = laterRdata.curSSAIdMap.find(entry.first);
1151            if (csit != laterRdata.curSSAIdMap.end() && !csit->second.empty())
1152            {
1153                // if found in last ssa ID map,
1154                // but has first value (some way do not change SSAId)
1155                // then pass to add new ssaIds before this point
1156                if (!lsit->second.hasValue(csit->second[0]))
1157                    continue; // otherwise, skip
1158            }
1159            else
1160                continue;
1161        }
1162        std::cout << "  entry: " << entry.first.regVar << ":" <<
1163                cxuint(entry.first.index) << ":";
1164        for (size_t v: entry.second)
1165            std::cout << " " << v;
1166        std::cout << std::endl;
1167        auto res = dest.insert(entry); // find
1168        if (res.second)
1169            continue; // added new
1170        VectorSet<size_t>& destEntry = res.first->second;
1171        // add new ways
1172        for (size_t ssaId: entry.second)
1173            destEntry.insertValue(ssaId);
1174        std::cout << "    :";
1175        for (size_t v: destEntry)
1176            std::cout << " " << v;
1177        std::cout << std::endl;
1178    }
1179    if (!loop) // do not if loop
1180        joinLastSSAIdMap(dest, laterRdata.lastSSAIdMap);
1181}
1182
1183
1184static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1185{
1186    // insert readBeforeWrite only if doesnt exists in destination
1187    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1188   
1189    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1190   
1191    for (const auto& entry: src.lastSSAIdMap)
1192    {
1193        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1194                cxuint(entry.first.index) << ":";
1195        for (size_t v: entry.second)
1196            std::cout << " " << v;
1197        std::cout << std::endl;
1198        auto res = dest.curSSAIdMap.insert(entry); // find
1199        VectorSet<size_t>& destEntry = res.first->second;
1200        if (!res.second)
1201        {
1202            // add new ways
1203            for (size_t ssaId: entry.second)
1204                destEntry.insertValue(ssaId);
1205        }
1206        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1207        if (rbwit != src.rbwSSAIdMap.end() &&
1208            // remove only if not in src lastSSAIdMap
1209            std::find(entry.second.begin(), entry.second.end(),
1210                      rbwit->second) == entry.second.end())
1211            destEntry.eraseValue(rbwit->second);
1212        std::cout << "    :";
1213        for (size_t v: destEntry)
1214            std::cout << " " << v;
1215        std::cout << std::endl;
1216    }
1217}
1218
1219static void reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1220            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1221            SSAReplacesMap& ssaReplacesMap, SSAEntry& ssaEntry)
1222{
1223    SSAInfo& sinfo = ssaEntry.second;
1224    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1225    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1226    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1227    {
1228        auto& ssaIds = ssaIdsIt->second.ssaIds;
1229       
1230        if (ssaIds.size() >= 2)
1231        {
1232            // reduce to minimal ssaId from all calls
1233            std::sort(ssaIds.begin(), ssaIds.end());
1234            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1235            // insert SSA replaces
1236            size_t minSSAId = ssaIds.front();
1237            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1238                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1239            ssaId = minSSAId+1; // plus one
1240        }
1241        else if (ssaIds.size() == 1)
1242            ssaId = ssaIds.front()+1; // plus one
1243       
1244        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1245                ssaEntry.first.index << ": " << ssaId << std::endl;
1246        // replace smallest ssaId in routineMap lastSSAId entry
1247        // reduce SSAIds replaces
1248        for (size_t rblock: ssaIdsIt->second.routines)
1249            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1250                            VectorSet<size_t>({ ssaId-1 });
1251        // finally remove from container (because obsolete)
1252        retSSAIdMap.erase(ssaIdsIt);
1253    }
1254}
1255
1256static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1257                size_t prevSSAId)
1258{
1259    const SSAInfo& sinfo = ssaEntry.second;
1260    // put first SSAId before write
1261    if (sinfo.readBeforeWrite)
1262    {
1263        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1264        rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId });
1265    }
1266   
1267    if (sinfo.ssaIdChange != 0)
1268    {
1269        // put last SSAId
1270        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1271        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1272        if (!res.second)
1273        {
1274            // if not inserted
1275            VectorSet<size_t>& ssaIds = res.first->second;
1276            if (sinfo.readBeforeWrite)
1277                ssaIds.eraseValue(prevSSAId);
1278            ssaIds.insertValue(sinfo.ssaIdLast);
1279        }
1280    }
1281    else
1282    {
1283        // insert read ssaid if no change
1284        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1285        if (!res.second)
1286        {
1287            VectorSet<size_t>& ssaIds = res.first->second;
1288            ssaIds.insertValue(prevSSAId);
1289        }
1290    }
1291}
1292
1293static void initializePrevRetSSAIds(const RetSSAIdMap& retSSAIdMap,
1294            const RoutineData& rdata, FlowStackEntry& entry)
1295{
1296    for (const auto& v: rdata.lastSSAIdMap)
1297    {
1298        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1299        if (!res.second)
1300            continue; // already added, do not change
1301        auto rfit = retSSAIdMap.find(v.first);
1302        if (rfit != retSSAIdMap.end())
1303            res.first->second = rfit->second;
1304    }
1305}
1306
1307static void revertRetSSAIdMap(const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1308            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1309{
1310    // revert retSSAIdMap
1311    for (auto v: entry.prevRetSSAIdSets)
1312    {
1313        auto rfit = retSSAIdMap.find(v.first);
1314        if (rdata!=nullptr)
1315        {
1316            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1317            for (size_t ssaId: rfit->second.ssaIds)
1318                ssaIds.eraseValue(ssaId);
1319        }
1320       
1321        if (!v.second.ssaIds.empty())
1322            rfit->second = v.second;
1323        else // erase if empty
1324            retSSAIdMap.erase(v.first);
1325       
1326        if (rdata!=nullptr)
1327        {
1328            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1329            for (size_t ssaId: v.second.ssaIds)
1330                ssaIds.insertValue(ssaId);
1331            if (v.second.ssaIds.empty())
1332            {
1333                auto cit = curSSAIdMap.find(v.first);
1334                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 0)-1);
1335            }
1336           
1337            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1338                    v.first.regVar << ":" << v.first.index << ":";
1339            for (size_t v: ssaIds)
1340                std::cout << " " << v;
1341            std::cout << std::endl;
1342        }
1343    }
1344}
1345
1346static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1347            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1348{
1349    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1350    std::cout << " pushentry " << entry.blockIndex << ": " <<
1351                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1352    for (size_t v: ssaIds)
1353        std::cout << " " << v;
1354    std::cout << std::endl;
1355   
1356    // if cblock with some children
1357    if (nextSSAId != curSSAId)
1358        ssaIds.eraseValue(nextSSAId-1);
1359   
1360    // push previous SSAId to lastSSAIdMap (later will be replaced)
1361    /*std::cout << "call back: " << nextSSAId << "," <<
1362            (curSSAId) << std::endl;*/
1363    ssaIds.insertValue(curSSAId-1);
1364   
1365    std::cout << " popentry " << entry.blockIndex << ": " <<
1366                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1367    for (size_t v: ssaIds)
1368        std::cout << " " << v;
1369    std::cout << std::endl;
1370}
1371
1372struct CLRX_INTERNAL LoopSSAIdMap
1373{
1374    LastSSAIdMap ssaIdMap;
1375    bool passed;
1376};
1377
1378static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1379        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1380        const std::unordered_set<size_t>& loopBlocks,
1381        const ResSecondPointsToCache& subroutToCache,
1382        SimpleCache<size_t, RoutineData>& subroutinesCache,
1383        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1384        size_t routineBlock, bool noMainLoop = false)
1385{
1386    std::cout << "--------- createRoutineData ----------------\n";
1387    std::vector<bool> visited(codeBlocks.size(), false);
1388    std::deque<FlowStackEntry> flowStack;
1389    // last SSA ids map from returns
1390    RetSSAIdMap retSSAIdMap;
1391    flowStack.push_back({ routineBlock, 0 });
1392   
1393    std::unordered_map<size_t, LoopSSAIdMap> loopSSAIdMap;
1394   
1395    while (!flowStack.empty())
1396    {
1397        FlowStackEntry& entry = flowStack.back();
1398        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1399       
1400        if (entry.nextIndex == 0)
1401        {
1402            // process current block
1403            //if (/*cachedRdata != nullptr &&*/
1404                //visited[entry.blockIndex] && flowStack.size() > 1)
1405            const RoutineData* cachedRdata = nullptr;
1406           
1407            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1408            if (routineBlock != entry.blockIndex)
1409            {
1410                cachedRdata = subroutinesCache.use(entry.blockIndex);
1411                if (cachedRdata == nullptr)
1412                {
1413                    // try in routine map
1414                    auto rit = routineMap.find(entry.blockIndex);
1415                    if (rit != routineMap.end())
1416                        cachedRdata = &rit->second;
1417                }
1418                if (!isLoop && cachedRdata == nullptr &&
1419                    subroutToCache.count(entry.blockIndex)!=0)
1420                {
1421                    RoutineData subrData;
1422                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1423                    createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1424                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
1425                    if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1426                    {   // leave from loop point
1427                        auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1428                        if (loopsit != loopSSAIdMap.end())
1429                            joinLastSSAIdMap(subrData.lastSSAIdMap,
1430                                    loopsit->second.ssaIdMap, subrData, true);
1431                    }
1432                    subroutinesCache.put(entry.blockIndex, subrData);
1433                   
1434                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1435                }
1436            }
1437           
1438            if (cachedRdata != nullptr)
1439            {
1440                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1441                std::cout << "procret2: " << entry.blockIndex << std::endl;
1442                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1443                std::cout << "procretend2" << std::endl;
1444                flowStack.pop_back();
1445                continue;
1446            }
1447            else if (!visited[entry.blockIndex])
1448            {
1449                std::cout << "proc: " << entry.blockIndex << std::endl;
1450                visited[entry.blockIndex] = true;
1451               
1452                for (const auto& ssaEntry: cblock.ssaInfoMap)
1453                    if (ssaEntry.first.regVar != nullptr)
1454                    {
1455                        // put data to routine data
1456                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1457                       
1458                        if (ssaEntry.second.ssaIdChange!=0)
1459                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1460                    }
1461            }
1462            else if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1463            {
1464                // handle loops
1465                std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1466                auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1467                if (loopsit != loopSSAIdMap.end())
1468                {
1469                    if (!loopsit->second.passed)
1470                        // still in loop join ssaid map
1471                        joinLastSSAIdMap(loopsit->second.ssaIdMap, rdata.curSSAIdMap);
1472                }
1473                else // insert new
1474                    loopSSAIdMap.insert({ entry.blockIndex,
1475                                { rdata.curSSAIdMap, false } });
1476                flowStack.pop_back();
1477                continue;
1478            }
1479            else
1480            {
1481                flowStack.pop_back();
1482                continue;
1483            }
1484        }
1485       
1486        // join and skip calls
1487        for (; entry.nextIndex < cblock.nexts.size() &&
1488                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1489            joinRoutineData(rdata, routineMap.find(
1490                            cblock.nexts[entry.nextIndex].block)->second);
1491       
1492        if (entry.nextIndex < cblock.nexts.size())
1493        {
1494            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1495            entry.nextIndex++;
1496        }
1497        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1498                // if have any call then go to next block
1499                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1500                 !cblock.haveReturn && !cblock.haveEnd)
1501        {
1502            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1503            {
1504                for (const NextBlock& next: cblock.nexts)
1505                    if (next.isCall)
1506                    {
1507                        //std::cout << "joincall:"<< next.block << std::endl;
1508                        auto it = routineMap.find(next.block); // must find
1509                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1510                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1511                    }
1512            }
1513            flowStack.push_back({ entry.blockIndex+1, 0 });
1514            entry.nextIndex++;
1515        }
1516        else
1517        {
1518            if (cblock.haveReturn)
1519            {
1520                std::cout << "procret: " << entry.blockIndex << std::endl;
1521                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1522                std::cout << "procretend" << std::endl;
1523            }
1524           
1525            // revert retSSAIdMap
1526            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1527            //
1528           
1529            for (const auto& ssaEntry: cblock.ssaInfoMap)
1530            {
1531                if (ssaEntry.first.regVar == nullptr)
1532                    continue;
1533                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1534                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1535                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1536                curSSAIdMap[ssaEntry.first] = curSSAId;
1537               
1538                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1539                            ":" << ssaEntry.first.index << ": " <<
1540                            nextSSAId << ", " << curSSAId << std::endl;
1541               
1542                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1543            }
1544           
1545            auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1546            if (flowStack.size() > 1 && subroutToCache.count(entry.blockIndex)!=0)
1547            { //put to cache
1548                RoutineData subrData;
1549                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1550                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1551                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
1552                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1553                {   // leave from loop point
1554                    if (loopsit != loopSSAIdMap.end())
1555                        joinLastSSAIdMap(subrData.lastSSAIdMap, loopsit->second.ssaIdMap,
1556                                         subrData, true);
1557                }
1558                subroutinesCache.put(entry.blockIndex, subrData);
1559            }
1560            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1561                // mark that loop has passed fully
1562                loopsit->second.passed = true;
1563           
1564            flowStack.pop_back();
1565        }
1566    }
1567    std::cout << "--------- createRoutineData end ------------\n";
1568}
1569
1570
1571void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1572{
1573    if (codeBlocks.empty())
1574        return;
1575    usageHandler.rewind();
1576    auto cbit = codeBlocks.begin();
1577    AsmRegVarUsage rvu;
1578    if (!usageHandler.hasNext())
1579        return; // do nothing if no regusages
1580    rvu = usageHandler.nextUsage();
1581   
1582    cxuint regRanges[MAX_REGTYPES_NUM*2];
1583    cxuint realRegsCount[MAX_REGTYPES_NUM];
1584    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1585    size_t regTypesNum;
1586    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1587   
1588    while (true)
1589    {
1590        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1591        {
1592            cbit->usagePos = usageHandler.getReadPos();
1593            ++cbit;
1594        }
1595        if (cbit == codeBlocks.end())
1596            break;
1597        // skip rvu's before codeblock
1598        while (rvu.offset < cbit->start && usageHandler.hasNext())
1599            rvu = usageHandler.nextUsage();
1600        if (rvu.offset < cbit->start)
1601            break;
1602       
1603        cbit->usagePos = usageHandler.getReadPos();
1604        while (rvu.offset < cbit->end)
1605        {
1606            // process rvu
1607            // only if regVar
1608            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1609            {
1610                auto res = cbit->ssaInfoMap.insert(
1611                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1612               
1613                SSAInfo& sinfo = res.first->second;
1614                if (res.second)
1615                    sinfo.firstPos = rvu.offset;
1616                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1617                    // if first write RVU instead read RVU
1618                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1619                    sinfo.readBeforeWrite = true;
1620                /* change SSA id only for write-only regvars -
1621                 *   read-write place can not have two different variables */
1622                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1623                    sinfo.ssaIdChange++;
1624                if (rvu.regVar==nullptr)
1625                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1626                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1627            }
1628            // get next rvusage
1629            if (!usageHandler.hasNext())
1630                break;
1631            rvu = usageHandler.nextUsage();
1632        }
1633        ++cbit;
1634    }
1635   
1636    size_t rbwCount = 0;
1637    size_t wrCount = 0;
1638   
1639    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1640   
1641    std::deque<CallStackEntry> callStack;
1642    std::deque<FlowStackEntry> flowStack;
1643    // total SSA count
1644    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1645    // last SSA ids map from returns
1646    RetSSAIdMap retSSAIdMap;
1647    // last SSA ids in current way in code flow
1648    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1649    // routine map - routine datas map, value - last SSA ids map
1650    std::unordered_map<size_t, RoutineData> routineMap;
1651    // key - current res first key, value - previous first key and its flowStack pos
1652    PrevWaysIndexMap prevWaysIndexMap;
1653    // to track ways last block indices pair: block index, flowStackPos)
1654    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1655    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1656   
1657    std::vector<bool> waysToCache(codeBlocks.size(), false);
1658    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1659    // subroutToCache - true if given block begin subroutine to cache
1660    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1661    std::vector<bool> visited(codeBlocks.size(), false);
1662    flowStack.push_back({ 0, 0 });
1663    flowStackBlocks[0] = true;
1664    std::unordered_set<size_t> loopBlocks;
1665   
1666    while (!flowStack.empty())
1667    {
1668        FlowStackEntry& entry = flowStack.back();
1669        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1670       
1671        if (entry.nextIndex == 0)
1672        {
1673            // process current block
1674            if (!visited[entry.blockIndex])
1675            {
1676                std::cout << "proc: " << entry.blockIndex << std::endl;
1677                visited[entry.blockIndex] = true;
1678               
1679                for (auto& ssaEntry: cblock.ssaInfoMap)
1680                {
1681                    SSAInfo& sinfo = ssaEntry.second;
1682                    if (ssaEntry.first.regVar==nullptr)
1683                    {
1684                        // TODO - pass registers through SSA marking and resolving
1685                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1686                        continue; // no change for registers
1687                    }
1688                   
1689                    reduceSSAIds(curSSAIdMap, retSSAIdMap, routineMap, ssaReplacesMap,
1690                                 ssaEntry);
1691                   
1692                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1693                   
1694                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1695                    if (totalSSACount == 0)
1696                    {
1697                        // first read before write at all, need change totalcount, ssaId
1698                        ssaId++;
1699                        totalSSACount++;
1700                    }
1701                   
1702                    sinfo.ssaId = totalSSACount;
1703                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1704                    sinfo.ssaIdBefore = ssaId-1;
1705                   
1706                    totalSSACount += sinfo.ssaIdChange;
1707                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1708                    //totalSSACount = std::max(totalSSACount, ssaId);
1709                    ssaId = totalSSACount;
1710                   
1711                    /*if (!callStack.empty())
1712                        // put data to routine data
1713                        updateRoutineData(routineMap.find(
1714                            callStack.back().routineBlock)->second, ssaEntry);*/
1715                       
1716                    // count read before writes (for cache weight)
1717                    if (sinfo.readBeforeWrite)
1718                        rbwCount++;
1719                    if (sinfo.ssaIdChange!=0)
1720                        wrCount++;
1721                }
1722            }
1723            else
1724            {
1725                // TODO: correctly join this path with routine data
1726                // currently does not include further substitutions in visited path
1727                /*RoutineData* rdata = nullptr;
1728                if (!callStack.empty())
1729                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1730               
1731                if (!entry.isCall && rdata != nullptr)
1732                {
1733                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1734                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1735                    std::cout << "procretend2" << std::endl;
1736                }*/
1737               
1738                // handle caching for res second point
1739                cblocksToCache.increase(entry.blockIndex);
1740                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1741                            cblocksToCache.count(entry.blockIndex) << std::endl;
1742                // back, already visited
1743                flowStackBlocks[entry.blockIndex] = false;
1744                flowStack.pop_back();
1745               
1746                size_t curWayBIndex = flowStack.back().blockIndex;
1747                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1748                {
1749                    // mark point of way to cache (res first point)
1750                    waysToCache[lastCommonCacheWayPoint.first] = true;
1751                    std::cout << "mark to pfcache " <<
1752                            lastCommonCacheWayPoint.first << ", " <<
1753                            curWayBIndex << std::endl;
1754                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1755                }
1756                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1757                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1758                continue;
1759            }
1760        }
1761       
1762        if (!callStack.empty() &&
1763            entry.blockIndex == callStack.back().callBlock &&
1764            entry.nextIndex-1 == callStack.back().callNextIndex)
1765        {
1766            std::cout << " ret: " << entry.blockIndex << std::endl;
1767            RoutineData& prevRdata =
1768                    routineMap.find(callStack.back().routineBlock)->second;
1769            if (!isRoutineGen[callStack.back().routineBlock])
1770            {
1771                //RoutineData myRoutineData;
1772                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
1773                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
1774                            callStack.back().routineBlock);
1775                //prevRdata.compare(myRoutineData);
1776                isRoutineGen[callStack.back().routineBlock] = true;
1777            }
1778            callStack.pop_back(); // just return from call
1779            if (!callStack.empty())
1780                // put to parent routine
1781                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1782                                    prevRdata);
1783        }
1784       
1785        if (entry.nextIndex < cblock.nexts.size())
1786        {
1787            bool isCall = false;
1788            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1789            if (cblock.nexts[entry.nextIndex].isCall)
1790            {
1791                std::cout << " call: " << entry.blockIndex << std::endl;
1792                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
1793                routineMap.insert({ nextBlock, { } });
1794                isCall = true;
1795            }
1796           
1797            flowStack.push_back({ nextBlock, 0, isCall });
1798            if (flowStackBlocks[nextBlock])
1799                loopBlocks.insert(nextBlock);
1800            flowStackBlocks[nextBlock] = true;
1801            entry.nextIndex++;
1802        }
1803        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1804                // if have any call then go to next block
1805                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1806                 !cblock.haveReturn && !cblock.haveEnd)
1807        {
1808            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1809            {
1810                for (const NextBlock& next: cblock.nexts)
1811                    if (next.isCall)
1812                    {
1813                        //std::cout << "joincall:"<< next.block << std::endl;
1814                        auto it = routineMap.find(next.block); // must find
1815                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1816                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1817                    }
1818            }
1819            flowStack.push_back({ entry.blockIndex+1, 0, false });
1820            if (flowStackBlocks[entry.blockIndex+1])
1821                loopBlocks.insert(entry.blockIndex+1);
1822            flowStackBlocks[entry.blockIndex+1] = true;
1823            entry.nextIndex++;
1824        }
1825        else // back
1826        {
1827            RoutineData* rdata = nullptr;
1828            if (!callStack.empty())
1829                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1830           
1831            /*if (cblock.haveReturn && rdata != nullptr)
1832            {
1833                std::cout << "procret: " << entry.blockIndex << std::endl;
1834                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1835                std::cout << "procretend" << std::endl;
1836            }*/
1837           
1838            // revert retSSAIdMap
1839            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
1840            //
1841           
1842            for (const auto& ssaEntry: cblock.ssaInfoMap)
1843            {
1844                if (ssaEntry.first.regVar == nullptr)
1845                    continue;
1846               
1847                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1848                const size_t nextSSAId = curSSAId;
1849                curSSAId = ssaEntry.second.ssaIdBefore+1;
1850               
1851                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1852                            ":" << ssaEntry.first.index << ": " <<
1853                            nextSSAId << ", " << curSSAId << std::endl;
1854               
1855                /*if (rdata!=nullptr)
1856                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
1857                */
1858            }
1859           
1860            std::cout << "pop: " << entry.blockIndex << std::endl;
1861            flowStackBlocks[entry.blockIndex] = false;
1862            flowStack.pop_back();
1863            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
1864                    lastCommonCacheWayPoint.second >= flowStack.size())
1865            {
1866                lastCommonCacheWayPoint =
1867                        { flowStack.back().blockIndex, flowStack.size()-1 };
1868                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
1869            }
1870           
1871        }
1872    }
1873   
1874    /**********
1875     * after that, we find points to resolve conflicts
1876     **********/
1877    flowStack.clear();
1878    std::deque<FlowStackEntry2> flowStack2;
1879   
1880    std::fill(visited.begin(), visited.end(), false);
1881    flowStack2.push_back({ 0, 0 });
1882   
1883    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
1884    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
1885   
1886    while (!flowStack2.empty())
1887    {
1888        FlowStackEntry2& entry = flowStack2.back();
1889        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1890       
1891        if (entry.nextIndex == 0)
1892        {
1893            // process current block
1894            if (!visited[entry.blockIndex])
1895                visited[entry.blockIndex] = true;
1896            else
1897            {
1898                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
1899                            prevWaysIndexMap, waysToCache, cblocksToCache,
1900                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
1901               
1902                // join routine data
1903                /*auto rit = routineMap.find(entry.blockIndex);
1904                if (rit != routineMap.end())
1905                    // just join with current routine data
1906                    joinRoutineData(routineMap.find(
1907                            callStack.back().routineBlock)->second, rit->second);*/
1908                /*if (!callStack.empty())
1909                    collectSSAIdsForCall(flowStack2, callStack, visited,
1910                            routineMap, codeBlocks);*/
1911                // back, already visited
1912                flowStack2.pop_back();
1913                continue;
1914            }
1915        }
1916       
1917        if (entry.nextIndex < cblock.nexts.size())
1918        {
1919            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1920            entry.nextIndex++;
1921        }
1922        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1923                // if have any call then go to next block
1924                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1925                 !cblock.haveReturn && !cblock.haveEnd)
1926        {
1927            flowStack2.push_back({ entry.blockIndex+1, 0 });
1928            entry.nextIndex++;
1929        }
1930        else // back
1931        {
1932            if (cblocksToCache.count(entry.blockIndex)==2 &&
1933                !resSecondPointsCache.hasKey(entry.blockIndex))
1934                // add to cache
1935                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1936                            entry.blockIndex);
1937            flowStack2.pop_back();
1938        }
1939    }
1940}
1941
1942void AsmRegAllocator::applySSAReplaces()
1943{
1944    /* prepare SSA id replaces */
1945    struct MinSSAGraphNode
1946    {
1947        size_t minSSAId;
1948        bool visited;
1949        std::unordered_set<size_t> nexts;
1950        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
1951    };
1952    struct MinSSAGraphStackEntry
1953    {
1954        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
1955        std::unordered_set<size_t>::const_iterator nextIt;
1956        size_t minSSAId;
1957    };
1958   
1959    for (auto& entry: ssaReplacesMap)
1960    {
1961        std::vector<SSAReplace>& replaces = entry.second;
1962        std::sort(replaces.begin(), replaces.end());
1963        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
1964        std::vector<SSAReplace> newReplaces;
1965       
1966        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
1967       
1968        auto it = replaces.begin();
1969        while (it != replaces.end())
1970        {
1971            auto itEnd = std::upper_bound(it, replaces.end(),
1972                            std::make_pair(it->first, size_t(SIZE_MAX)));
1973            {
1974                MinSSAGraphNode& node = ssaGraphNodes[it->first];
1975                node.minSSAId = std::min(node.minSSAId, it->second);
1976                for (auto it2 = it; it2 != itEnd; ++it2)
1977                    node.nexts.insert(it->second);
1978            }
1979            it = itEnd;
1980        }
1981        // propagate min value
1982        std::stack<MinSSAGraphStackEntry> minSSAStack;
1983        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
1984                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
1985        {
1986            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
1987            // traverse with minimalize SSA id
1988            while (!minSSAStack.empty())
1989            {
1990                MinSSAGraphStackEntry& entry = minSSAStack.top();
1991                MinSSAGraphNode& node = entry.nodeIt->second;
1992                bool toPop = false;
1993                if (entry.nextIt == node.nexts.begin())
1994                {
1995                    if (!node.visited)
1996                        node.visited = true;
1997                    else
1998                        toPop = true;
1999                }
2000                if (!toPop && entry.nextIt != node.nexts.end())
2001                {
2002                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2003                    if (nodeIt != ssaGraphNodes.end())
2004                    {
2005                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2006                                nodeIt->second.minSSAId });
2007                    }
2008                    ++entry.nextIt;
2009                }
2010                else
2011                {
2012                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2013                    minSSAStack.pop();
2014                    if (!minSSAStack.empty())
2015                    {
2016                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2017                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2018                    }
2019                }
2020            }
2021            // skip visited nodes
2022            while (ssaGraphNodeIt != ssaGraphNodes.end())
2023                if (!ssaGraphNodeIt->second.visited)
2024                    break;
2025        }
2026       
2027        for (const auto& entry: ssaGraphNodes)
2028            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2029       
2030        std::sort(newReplaces.begin(), newReplaces.end());
2031        entry.second = newReplaces;
2032    }
2033   
2034    /* apply SSA id replaces */
2035    for (CodeBlock& cblock: codeBlocks)
2036        for (auto& ssaEntry: cblock.ssaInfoMap)
2037        {
2038            auto it = ssaReplacesMap.find(ssaEntry.first);
2039            if (it == ssaReplacesMap.end())
2040                continue;
2041            SSAInfo& sinfo = ssaEntry.second;
2042            std::vector<SSAReplace>& replaces = it->second;
2043            if (sinfo.readBeforeWrite)
2044            {
2045                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2046                                 ssaEntry.second.ssaIdBefore);
2047                if (rit != replaces.end())
2048                    sinfo.ssaIdBefore = rit->second; // replace
2049            }
2050            if (sinfo.ssaIdFirst != SIZE_MAX)
2051            {
2052                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2053                                 ssaEntry.second.ssaIdFirst);
2054                if (rit != replaces.end())
2055                    sinfo.ssaIdFirst = rit->second; // replace
2056            }
2057            if (sinfo.ssaIdLast != SIZE_MAX)
2058            {
2059                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2060                                 ssaEntry.second.ssaIdLast);
2061                if (rit != replaces.end())
2062                    sinfo.ssaIdLast = rit->second; // replace
2063            }
2064        }
2065}
2066
2067struct Liveness
2068{
2069    std::map<size_t, size_t> l;
2070   
2071    Liveness() { }
2072   
2073    void clear()
2074    { l.clear(); }
2075   
2076    void expand(size_t k)
2077    {
2078        if (l.empty())
2079            l.insert(std::make_pair(k, k+1));
2080        else
2081        {
2082            auto it = l.end();
2083            --it;
2084            it->second = k+1;
2085        }
2086    }
2087    void newRegion(size_t k)
2088    {
2089        if (l.empty())
2090            l.insert(std::make_pair(k, k));
2091        else
2092        {
2093            auto it = l.end();
2094            --it;
2095            if (it->first != k && it->second != k)
2096                l.insert(std::make_pair(k, k));
2097        }
2098    }
2099   
2100    void insert(size_t k, size_t k2)
2101    {
2102        auto it1 = l.lower_bound(k);
2103        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2104            --it1;
2105        if (it1->second < k)
2106            ++it1;
2107        auto it2 = l.lower_bound(k2);
2108        if (it1!=it2)
2109        {
2110            k = std::min(k, it1->first);
2111            k2 = std::max(k2, (--it2)->second);
2112            l.erase(it1, it2);
2113        }
2114        l.insert(std::make_pair(k, k2));
2115    }
2116   
2117    bool contain(size_t t) const
2118    {
2119        auto it = l.lower_bound(t);
2120        if (it==l.begin() && it->first>t)
2121            return false;
2122        if (it==l.end() || it->first>t)
2123            --it;
2124        return it->first<=t && t<it->second;
2125    }
2126   
2127    bool common(const Liveness& b) const
2128    {
2129        auto i = l.begin();
2130        auto j = b.l.begin();
2131        for (; i != l.end() && j != b.l.end();)
2132        {
2133            if (i->first==i->second)
2134            {
2135                ++i;
2136                continue;
2137            }
2138            if (j->first==j->second)
2139            {
2140                ++j;
2141                continue;
2142            }
2143            if (i->first<j->first)
2144            {
2145                if (i->second > j->first)
2146                    return true; // common place
2147                ++i;
2148            }
2149            else
2150            {
2151                if (i->first < j->second)
2152                    return true; // common place
2153                ++j;
2154            }
2155        }
2156        return false;
2157    }
2158};
2159
2160typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2161
2162static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2163            const AsmSingleVReg& svreg)
2164{
2165    cxuint regType; // regtype
2166    if (svreg.regVar!=nullptr)
2167        regType = svreg.regVar->type;
2168    else
2169        for (regType = 0; regType < regTypesNum; regType++)
2170            if (svreg.index >= regRanges[regType<<1] &&
2171                svreg.index < regRanges[(regType<<1)+1])
2172                break;
2173    return regType;
2174}
2175
2176static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2177        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2178        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2179{
2180    size_t ssaId;
2181    if (svreg.regVar==nullptr)
2182        ssaId = 0;
2183    else if (ssaIdIdx==0)
2184        ssaId = ssaInfo.ssaIdBefore;
2185    else if (ssaIdIdx==1)
2186        ssaId = ssaInfo.ssaIdFirst;
2187    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2188        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2189    else // last
2190        ssaId = ssaInfo.ssaIdLast;
2191   
2192    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2193    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2194    const std::vector<size_t>& ssaIdIndices =
2195                vregIndexMap.find(svreg)->second;
2196    return livenesses[regType][ssaIdIndices[ssaId]];
2197}
2198
2199typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2200
2201struct CLRX_INTERNAL VRegLastPos
2202{
2203    size_t ssaId; // last SSA id
2204    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2205};
2206
2207/* TODO: add handling calls
2208 * handle many start points in this code (for example many kernel's in same code)
2209 * replace sets by vector, and sort and remove same values on demand
2210 */
2211
2212typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2213
2214static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2215        const std::vector<CodeBlock>& codeBlocks,
2216        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2217        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2218        size_t regTypesNum, const cxuint* regRanges)
2219{
2220    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2221    for (const auto& entry: cblock.ssaInfoMap)
2222        if (entry.second.readBeforeWrite)
2223        {
2224            // find last
2225            auto lvrit = lastVRegMap.find(entry.first);
2226            if (lvrit == lastVRegMap.end())
2227                continue; // not found
2228            const VRegLastPos& lastPos = lvrit->second;
2229            FlowStackCIter flit = lastPos.blockChain.back();
2230            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2231            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2232            const std::vector<size_t>& ssaIdIndices =
2233                        vregIndexMap.find(entry.first)->second;
2234            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2235            FlowStackCIter flitEnd = flowStack.end();
2236            --flitEnd; // before last element
2237            // insert live time to last seen position
2238            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2239            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2240            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2241                    toLiveCvt + lastBlk.end);
2242            for (++flit; flit != flitEnd; ++flit)
2243            {
2244                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2245                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2246                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2247            }
2248        }
2249}
2250
2251static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2252        const std::vector<CodeBlock>& codeBlocks,
2253        const Array<size_t>& codeBlockLiveTimes,
2254        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2255        size_t regTypesNum, const cxuint* regRanges)
2256{
2257    auto flitStart = flowStack.end();
2258    --flitStart;
2259    size_t curBlock = flitStart->blockIndex;
2260    // find step in way
2261    while (flitStart->blockIndex != curBlock) --flitStart;
2262    auto flitEnd = flowStack.end();
2263    --flitEnd;
2264    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2265   
2266    // collect var to check
2267    size_t flowPos = 0;
2268    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2269    {
2270        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2271        for (const auto& entry: cblock.ssaInfoMap)
2272        {
2273            const SSAInfo& sinfo = entry.second;
2274            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2275                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2276            varMap[entry.first] = { lastSSAId, flowPos };
2277        }
2278    }
2279    // find connections
2280    flowPos = 0;
2281    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2282    {
2283        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2284        for (const auto& entry: cblock.ssaInfoMap)
2285        {
2286            const SSAInfo& sinfo = entry.second;
2287            auto varMapIt = varMap.find(entry.first);
2288            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2289                flowPos > varMapIt->second.second ||
2290                sinfo.ssaIdBefore != varMapIt->second.first)
2291                continue;
2292            // just connect
2293           
2294            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2295            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2296            const std::vector<size_t>& ssaIdIndices =
2297                        vregIndexMap.find(entry.first)->second;
2298            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2299           
2300            if (flowPos == varMapIt->second.second)
2301            {
2302                // fill whole loop
2303                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2304                {
2305                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2306                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2307                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2308                }
2309                continue;
2310            }
2311           
2312            size_t flowPos2 = 0;
2313            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2314            {
2315                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2316                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2317                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2318            }
2319            // insert liveness for last block in loop of last SSAId (prev round)
2320            auto flit2 = flitStart + flowPos;
2321            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2322            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2323            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2324                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2325            // insert liveness for first block in loop of last SSAId
2326            flit2 = flitStart + (varMapIt->second.second+1);
2327            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2328            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2329            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2330                    toLiveCvt + lastBlk.end);
2331            // fill up loop end
2332            for (++flit2; flit2 != flitEnd; ++flit2)
2333            {
2334                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2335                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2336                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2337            }
2338        }
2339    }
2340}
2341
2342struct LiveBlock
2343{
2344    size_t start;
2345    size_t end;
2346    size_t vidx;
2347   
2348    bool operator==(const LiveBlock& b) const
2349    { return start==b.start && end==b.end && vidx==b.vidx; }
2350   
2351    bool operator<(const LiveBlock& b) const
2352    { return start<b.start || (start==b.start &&
2353            (end<b.end || (end==b.end && vidx<b.vidx))); }
2354};
2355
2356typedef AsmRegAllocator::LinearDep LinearDep;
2357typedef AsmRegAllocator::EqualToDep EqualToDep;
2358typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2359typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2360
2361static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2362            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2363            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2364            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2365            size_t regTypesNum, const cxuint* regRanges)
2366{
2367    // add linear deps
2368    cxuint count = ldeps[0];
2369    cxuint pos = 1;
2370    cxbyte rvuAdded = 0;
2371    for (cxuint i = 0; i < count; i++)
2372    {
2373        cxuint ccount = ldeps[pos++];
2374        std::vector<size_t> vidxes;
2375        cxuint regType = UINT_MAX;
2376        cxbyte align = rvus[ldeps[pos]].align;
2377        for (cxuint j = 0; j < ccount; j++)
2378        {
2379            rvuAdded |= 1U<<ldeps[pos];
2380            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2381            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2382            {
2383                AsmSingleVReg svreg = {rvu.regVar, k};
2384                auto sit = ssaIdIdxMap.find(svreg);
2385                if (regType==UINT_MAX)
2386                    regType = getRegType(regTypesNum, regRanges, svreg);
2387                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2388                const std::vector<size_t>& ssaIdIndices =
2389                            vregIndexMap.find(svreg)->second;
2390                // push variable index
2391                vidxes.push_back(ssaIdIndices[sit->second]);
2392            }
2393        }
2394        ldepsOut[regType][vidxes[0]].align = align;
2395        for (size_t k = 1; k < vidxes.size(); k++)
2396        {
2397            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2398            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2399        }
2400    }
2401    // add single arg linear dependencies
2402    for (cxuint i = 0; i < rvusNum; i++)
2403        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2404        {
2405            const AsmRegVarUsage& rvu = rvus[i];
2406            std::vector<size_t> vidxes;
2407            cxuint regType = UINT_MAX;
2408            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2409            {
2410                AsmSingleVReg svreg = {rvu.regVar, k};
2411                auto sit = ssaIdIdxMap.find(svreg);
2412                if (regType==UINT_MAX)
2413                    regType = getRegType(regTypesNum, regRanges, svreg);
2414                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2415                const std::vector<size_t>& ssaIdIndices =
2416                            vregIndexMap.find(svreg)->second;
2417                // push variable index
2418                vidxes.push_back(ssaIdIndices[sit->second]);
2419            }
2420            for (size_t j = 1; j < vidxes.size(); j++)
2421            {
2422                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2423                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2424            }
2425        }
2426       
2427    /* equalTo dependencies */
2428    count = edeps[0];
2429    pos = 1;
2430    for (cxuint i = 0; i < count; i++)
2431    {
2432        cxuint ccount = edeps[pos++];
2433        std::vector<size_t> vidxes;
2434        cxuint regType = UINT_MAX;
2435        for (cxuint j = 0; j < ccount; j++)
2436        {
2437            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2438            // only one register should be set for equalTo depencencies
2439            // other registers in range will be resolved by linear dependencies
2440            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2441            auto sit = ssaIdIdxMap.find(svreg);
2442            if (regType==UINT_MAX)
2443                regType = getRegType(regTypesNum, regRanges, svreg);
2444            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2445            const std::vector<size_t>& ssaIdIndices =
2446                        vregIndexMap.find(svreg)->second;
2447            // push variable index
2448            vidxes.push_back(ssaIdIndices[sit->second]);
2449        }
2450        for (size_t j = 1; j < vidxes.size(); j++)
2451        {
2452            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2453            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2454        }
2455    }
2456}
2457
2458typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2459
2460struct EqualStackEntry
2461{
2462    EqualToDepMapCIter etoDepIt;
2463    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2464};
2465
2466void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2467{
2468    // construct var index maps
2469    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2470    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2471    cxuint regRanges[MAX_REGTYPES_NUM*2];
2472    size_t regTypesNum;
2473    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2474   
2475    for (const CodeBlock& cblock: codeBlocks)
2476        for (const auto& entry: cblock.ssaInfoMap)
2477        {
2478            const SSAInfo& sinfo = entry.second;
2479            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2480            VarIndexMap& vregIndices = vregIndexMaps[regType];
2481            size_t& graphVregsCount = graphVregsCounts[regType];
2482            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2483            size_t ssaIdCount = 0;
2484            if (sinfo.readBeforeWrite)
2485                ssaIdCount = sinfo.ssaIdBefore+1;
2486            if (sinfo.ssaIdChange!=0)
2487            {
2488                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2489                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2490            }
2491            if (ssaIdIndices.size() < ssaIdCount)
2492                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2493           
2494            if (sinfo.readBeforeWrite)
2495                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2496            if (sinfo.ssaIdChange!=0)
2497            {
2498                // fill up ssaIdIndices (with graph Ids)
2499                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2500                for (size_t ssaId = sinfo.ssaId+1;
2501                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2502                    ssaIdIndices[ssaId] = graphVregsCount++;
2503                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2504            }
2505        }
2506   
2507    // construct vreg liveness
2508    std::deque<FlowStackEntry> flowStack;
2509    std::vector<bool> visited(codeBlocks.size(), false);
2510    // hold last vreg ssaId and position
2511    LastVRegMap lastVRegMap;
2512    // hold start live time position for every code block
2513    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2514    std::unordered_set<size_t> blockInWay;
2515   
2516    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2517   
2518    for (size_t i = 0; i < regTypesNum; i++)
2519        livenesses[i].resize(graphVregsCounts[i]);
2520   
2521    size_t curLiveTime = 0;
2522   
2523    while (!flowStack.empty())
2524    {
2525        FlowStackEntry& entry = flowStack.back();
2526        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2527       
2528        if (entry.nextIndex == 0)
2529        {
2530            // process current block
2531            if (!blockInWay.insert(entry.blockIndex).second)
2532            {
2533                // if loop
2534                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2535                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2536                flowStack.pop_back();
2537                continue;
2538            }
2539           
2540            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2541            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2542                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2543           
2544            for (const auto& sentry: cblock.ssaInfoMap)
2545            {
2546                const SSAInfo& sinfo = sentry.second;
2547                // update
2548                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2549                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2550                FlowStackCIter flit = flowStack.end();
2551                --flit; // to last position
2552                auto res = lastVRegMap.insert({ sentry.first, 
2553                            { lastSSAId, { flit } } });
2554                if (!res.second) // if not first seen, just update
2555                {
2556                    // update last
2557                    res.first->second.ssaId = lastSSAId;
2558                    res.first->second.blockChain.push_back(flit);
2559                }
2560            }
2561           
2562            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2563            if (!visited[entry.blockIndex])
2564            {
2565                visited[entry.blockIndex] = true;
2566                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2567                AsmRegVarUsage instrRVUs[8];
2568                cxuint instrRVUsCount = 0;
2569               
2570                size_t oldOffset = cblock.usagePos.readOffset;
2571                std::vector<AsmSingleVReg> readSVRegs;
2572                std::vector<AsmSingleVReg> writtenSVRegs;
2573               
2574                usageHandler.setReadPos(cblock.usagePos);
2575                // register in liveness
2576                while (true)
2577                {
2578                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2579                    size_t liveTimeNext = curBlockLiveEnd;
2580                    if (usageHandler.hasNext())
2581                    {
2582                        rvu = usageHandler.nextUsage();
2583                        if (rvu.offset >= cblock.end)
2584                            break;
2585                        if (!rvu.useRegMode)
2586                            instrRVUs[instrRVUsCount++] = rvu;
2587                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2588                                cblock.start + curLiveTime;
2589                    }
2590                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2591                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2592                    {
2593                        // apply to liveness
2594                        for (AsmSingleVReg svreg: readSVRegs)
2595                        {
2596                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2597                                    cblock.ssaInfoMap.find(svreg)->second,
2598                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2599                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2600                                lv.newRegion(curLiveTime); // begin region from this block
2601                            lv.expand(liveTime);
2602                        }
2603                        for (AsmSingleVReg svreg: writtenSVRegs)
2604                        {
2605                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2606                            ssaIdIdx++;
2607                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2608                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2609                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2610                            if (liveTimeNext != curBlockLiveEnd)
2611                                // because live after this instr
2612                                lv.newRegion(liveTimeNext);
2613                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2614                        }
2615                        // get linear deps and equal to
2616                        cxbyte lDeps[16];
2617                        cxbyte eDeps[16];
2618                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2619                                        lDeps, eDeps);
2620                       
2621                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2622                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2623                                regTypesNum, regRanges);
2624                       
2625                        readSVRegs.clear();
2626                        writtenSVRegs.clear();
2627                        if (!usageHandler.hasNext())
2628                            break; // end
2629                        oldOffset = rvu.offset;
2630                        instrRVUsCount = 0;
2631                    }
2632                    if (rvu.offset >= cblock.end)
2633                        break;
2634                   
2635                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2636                    {
2637                        // per register/singlvreg
2638                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2639                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2640                            writtenSVRegs.push_back(svreg);
2641                        else // read or treat as reading // expand previous region
2642                            readSVRegs.push_back(svreg);
2643                    }
2644                }
2645                curLiveTime += cblock.end-cblock.start;
2646            }
2647            else
2648            {
2649                // back, already visited
2650                flowStack.pop_back();
2651                continue;
2652            }
2653        }
2654        if (entry.nextIndex < cblock.nexts.size())
2655        {
2656            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2657            entry.nextIndex++;
2658        }
2659        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2660        {
2661            flowStack.push_back({ entry.blockIndex+1, 0 });
2662            entry.nextIndex++;
2663        }
2664        else // back
2665        {
2666            // revert lastSSAIdMap
2667            blockInWay.erase(entry.blockIndex);
2668            flowStack.pop_back();
2669            if (!flowStack.empty())
2670            {
2671                for (const auto& sentry: cblock.ssaInfoMap)
2672                {
2673                    auto lvrit = lastVRegMap.find(sentry.first);
2674                    if (lvrit != lastVRegMap.end())
2675                    {
2676                        VRegLastPos& lastPos = lvrit->second;
2677                        lastPos.ssaId = sentry.second.ssaIdBefore;
2678                        lastPos.blockChain.pop_back();
2679                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2680                            lastVRegMap.erase(lvrit);
2681                    }
2682                }
2683            }
2684        }
2685    }
2686   
2687    /// construct liveBlockMaps
2688    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2689    for (size_t regType = 0; regType < regTypesNum; regType++)
2690    {
2691        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2692        std::vector<Liveness>& liveness = livenesses[regType];
2693        for (size_t li = 0; li < liveness.size(); li++)
2694        {
2695            Liveness& lv = liveness[li];
2696            for (const std::pair<size_t, size_t>& blk: lv.l)
2697                if (blk.first != blk.second)
2698                    liveBlockMap.insert({ blk.first, blk.second, li });
2699            lv.clear();
2700        }
2701        liveness.clear();
2702    }
2703   
2704    // create interference graphs
2705    for (size_t regType = 0; regType < regTypesNum; regType++)
2706    {
2707        InterGraph& interGraph = interGraphs[regType];
2708        interGraph.resize(graphVregsCounts[regType]);
2709        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2710       
2711        auto lit = liveBlockMap.begin();
2712        size_t rangeStart = 0;
2713        if (lit != liveBlockMap.end())
2714            rangeStart = lit->start;
2715        while (lit != liveBlockMap.end())
2716        {
2717            const size_t blkStart = lit->start;
2718            const size_t blkEnd = lit->end;
2719            size_t rangeEnd = blkEnd;
2720            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2721            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2722            // collect from this range, variable indices
2723            std::set<size_t> varIndices;
2724            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2725                varIndices.insert(lit2->vidx);
2726            // push to intergraph as full subgGraph
2727            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2728                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2729                    if (vit != vit2)
2730                        interGraph[*vit].insert(*vit2);
2731            // go to next live blocks
2732            rangeStart = rangeEnd;
2733            for (; lit != liveBlockMap.end(); ++lit)
2734                if (lit->start != blkStart && lit->end != blkEnd)
2735                    break;
2736            if (lit == liveBlockMap.end())
2737                break; //
2738            rangeStart = std::max(rangeStart, lit->start);
2739        }
2740    }
2741   
2742    /*
2743     * resolve equalSets
2744     */
2745    for (cxuint regType = 0; regType < regTypesNum; regType++)
2746    {
2747        InterGraph& interGraph = interGraphs[regType];
2748        const size_t nodesNum = interGraph.size();
2749        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2750        std::vector<bool> visited(nodesNum, false);
2751        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2752       
2753        for (size_t v = 0; v < nodesNum;)
2754        {
2755            auto it = etoDepMap.find(v);
2756            if (it == etoDepMap.end())
2757            {
2758                // is not regvar in equalTo dependencies
2759                v++;
2760                continue;
2761            }
2762           
2763            std::stack<EqualStackEntry> etoStack;
2764            etoStack.push(EqualStackEntry{ it, 0 });
2765           
2766            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2767            const size_t equalSetIndex = equalSetList.size();
2768            equalSetList.push_back(std::vector<size_t>());
2769            std::vector<size_t>& equalSet = equalSetList.back();
2770           
2771            // traverse by this
2772            while (!etoStack.empty())
2773            {
2774                EqualStackEntry& entry = etoStack.top();
2775                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2776                const EqualToDep& eToDep = entry.etoDepIt->second;
2777                if (entry.nextIdx == 0)
2778                {
2779                    if (!visited[vidx])
2780                    {
2781                        // push to this equalSet
2782                        equalSetMap.insert({ vidx, equalSetIndex });
2783                        equalSet.push_back(vidx);
2784                    }
2785                    else
2786                    {
2787                        // already visited
2788                        etoStack.pop();
2789                        continue;
2790                    }
2791                }
2792               
2793                if (entry.nextIdx < eToDep.nextVidxes.size())
2794                {
2795                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2796                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2797                    entry.nextIdx++;
2798                }
2799                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2800                {
2801                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2802                                entry.nextIdx - eToDep.nextVidxes.size()]);
2803                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2804                    entry.nextIdx++;
2805                }
2806                else
2807                    etoStack.pop();
2808            }
2809           
2810            // to first already added node (var)
2811            while (v < nodesNum && !visited[v]) v++;
2812        }
2813    }
2814}
2815
2816typedef AsmRegAllocator::InterGraph InterGraph;
2817
2818struct CLRX_INTERNAL SDOLDOCompare
2819{
2820    const InterGraph& interGraph;
2821    const Array<size_t>& sdoCounts;
2822   
2823    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2824        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2825    { }
2826   
2827    bool operator()(size_t a, size_t b) const
2828    {
2829        if (sdoCounts[a] > sdoCounts[b])
2830            return true;
2831        return interGraph[a].size() > interGraph[b].size();
2832    }
2833};
2834
2835/* algorithm to allocate regranges:
2836 * from smallest regranges to greatest regranges:
2837 *   choosing free register: from smallest free regranges
2838 *      to greatest regranges:
2839 *         in this same regrange:
2840 *               try to find free regs in regranges
2841 *               try to link free ends of two distinct regranges
2842 */
2843
2844void AsmRegAllocator::colorInterferenceGraph()
2845{
2846    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2847                    assembler.deviceType);
2848   
2849    for (size_t regType = 0; regType < regTypesNum; regType++)
2850    {
2851        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
2852        InterGraph& interGraph = interGraphs[regType];
2853        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2854        Array<cxuint>& gcMap = graphColorMaps[regType];
2855        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2856        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2857       
2858        const size_t nodesNum = interGraph.size();
2859        gcMap.resize(nodesNum);
2860        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
2861        Array<size_t> sdoCounts(nodesNum);
2862        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
2863       
2864        SDOLDOCompare compare(interGraph, sdoCounts);
2865        std::set<size_t, SDOLDOCompare> nodeSet(compare);
2866        for (size_t i = 0; i < nodesNum; i++)
2867            nodeSet.insert(i);
2868       
2869        cxuint colorsNum = 0;
2870        // firstly, allocate real registers
2871        for (const auto& entry: vregIndexMap)
2872            if (entry.first.regVar == nullptr)
2873                gcMap[entry.second[0]] = colorsNum++;
2874       
2875        for (size_t colored = 0; colored < nodesNum; colored++)
2876        {
2877            size_t node = *nodeSet.begin();
2878            if (gcMap[node] != UINT_MAX)
2879                continue; // already colored
2880            size_t color = 0;
2881            std::vector<size_t> equalNodes;
2882            equalNodes.push_back(node); // only one node, if equalSet not found
2883            auto equalSetMapIt = equalSetMap.find(node);
2884            if (equalSetMapIt != equalSetMap.end())
2885                // found, get equal set from equalSetList
2886                equalNodes = equalSetList[equalSetMapIt->second];
2887           
2888            for (color = 0; color <= colorsNum; color++)
2889            {
2890                // find first usable color
2891                bool thisSame = false;
2892                for (size_t nb: interGraph[node])
2893                    if (gcMap[nb] == color)
2894                    {
2895                        thisSame = true;
2896                        break;
2897                    }
2898                if (!thisSame)
2899                    break;
2900            }
2901            if (color==colorsNum) // add new color if needed
2902            {
2903                if (colorsNum >= maxColorsNum)
2904                    throw AsmException("Too many register is needed");
2905                colorsNum++;
2906            }
2907           
2908            for (size_t nextNode: equalNodes)
2909                gcMap[nextNode] = color;
2910            // update SDO for node
2911            bool colorExists = false;
2912            for (size_t node: equalNodes)
2913            {
2914                for (size_t nb: interGraph[node])
2915                    if (gcMap[nb] == color)
2916                    {
2917                        colorExists = true;
2918                        break;
2919                    }
2920                if (!colorExists)
2921                    sdoCounts[node]++;
2922            }
2923            // update SDO for neighbors
2924            for (size_t node: equalNodes)
2925                for (size_t nb: interGraph[node])
2926                {
2927                    colorExists = false;
2928                    for (size_t nb2: interGraph[nb])
2929                        if (gcMap[nb2] == color)
2930                        {
2931                            colorExists = true;
2932                            break;
2933                        }
2934                    if (!colorExists)
2935                    {
2936                        if (gcMap[nb] == UINT_MAX)
2937                            nodeSet.erase(nb);  // before update we erase from nodeSet
2938                        sdoCounts[nb]++;
2939                        if (gcMap[nb] == UINT_MAX)
2940                            nodeSet.insert(nb); // after update, insert again
2941                    }
2942                }
2943           
2944            for (size_t nextNode: equalNodes)
2945                gcMap[nextNode] = color;
2946        }
2947    }
2948}
2949
2950void AsmRegAllocator::allocateRegisters(cxuint sectionId)
2951{
2952    // before any operation, clear all
2953    codeBlocks.clear();
2954    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
2955    {
2956        vregIndexMaps[i].clear();
2957        interGraphs[i].clear();
2958        linearDepMaps[i].clear();
2959        equalToDepMaps[i].clear();
2960        graphColorMaps[i].clear();
2961        equalSetMaps[i].clear();
2962        equalSetLists[i].clear();
2963    }
2964    ssaReplacesMap.clear();
2965    cxuint maxRegs[MAX_REGTYPES_NUM];
2966    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
2967   
2968    // set up
2969    const AsmSection& section = assembler.sections[sectionId];
2970    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
2971    createSSAData(*section.usageHandler);
2972    applySSAReplaces();
2973    createInterferenceGraph(*section.usageHandler);
2974    colorInterferenceGraph();
2975}
Note: See TracBrowser for help on using the repository browser.